AWS ha lanzado una solución innovadora para desarrolladores de machine learning que necesitan recursos informáticos confiables. La introducción de Amazon EC2 Capacity Blocks para machine learning permite a los usuarios reservar capacidad de GPU específicamente para entrenar y desplegar inteligencia artificial generativa y modelos de lenguaje grande. Este servicio opera como un sistema de reservas hoteleras, permitiendo a los clientes especificar requisitos como el número de instancias de GPU y la duración deseada. Este enfoque garantiza que los proyectos de machine learning puedan avanzar sin interrupciones, ya no limitados por la escasez de potencia computacional.
Con esta nueva oferta, las empresas pueden entrenar o ajustar eficientemente sus modelos, realizar experimentos o utilizar el servicio bajo demanda en situaciones de recuperación ante desastres. Channy Yun, defensora principal de desarrolladores en AWS, destacó: “Puedes usar EC2 Capacity Blocks cuando necesites asegurar capacidad para entrenar o ajustar modelos de machine learning, realizar experimentos o planificar futuros aumentos en la demanda de aplicaciones de machine learning.”
Actualmente, el servicio está disponible para las instancias Amazon EC2 P5, impulsadas por GPUs Nvidia H100 Tensor Core. Los clientes en la región este de EE. UU. de AWS pueden aprovechar este servicio. La estructura de precios es dinámica e influenciada por la oferta y la demanda, ofreciendo a los usuarios la flexibilidad de adquirir bloques de instancias de GPU por períodos que varían de un día a 14 días, y en ocasiones, hasta ocho semanas por adelantado.
Esta incursión en el mercado de alquiler de GPU refleja una tendencia más amplia, ya que diversas empresas buscan aprovechar la creciente demanda de soluciones de computación de alto rendimiento. Notablemente, NexGen Cloud planea lanzar un servicio de "AI Supercloud", permitiendo a los desarrolladores alquilar recursos para el entrenamiento de modelos. Además, Hugging Face presentó una solución de Training Cluster as a Service a principios de este año, y el gobierno de EE. UU. ha reducido significativamente el precio de alquiler de su supercomputadora Perlmutter.
En el competitivo panorama de la producción de chips para IA, Nvidia continúa liderando el camino. Solo en el segundo trimestre, Nvidia envió aproximadamente 900 toneladas de GPUs H100, aunque competidores como AMD, IBM y SambaNova están trabajando activamente para ganar terreno en este mercado en rápida evolución.