En la llamada de ganancias del primer trimestre de 2025, el CEO de Nvidia, Jensen Huang, destacó la rápida expansión de las startups de IA generativa (GenAI) que utilizan la plataforma de computación acelerada de Nvidia. "Hay aproximadamente entre 15,000 y 20,000 startups de IA generativa en diversos campos, incluyendo multimedia, personajes digitales, diseño, productividad de aplicaciones y biología digital", señaló Huang. Resaltó el notable giro de la industria automotriz hacia Nvidia para el entrenamiento de modelos integrales que mejoran las capacidades operativas de los coches autónomos.
Huang enfatizó que la demanda de las GPUs de Nvidia es "increíble", ya que varios sectores, incluidos el internet consumidor, empresas, computación en la nube, automotriz y salud, están invirtiendo significativamente en "fábricas de IA" construidas sobre miles de GPUs de Nvidia. Afirmó que la transición hacia la IA generativa marca un cambio revolucionario hacia una "plataforma de computación de pila completa", moviéndose de la simple recuperación de información a la generación de salidas inteligentes. “[La computadora] ahora genera respuestas inteligentes y contextualmente relevantes”, explicó Huang, previniendo una transformación en las pilas de computación a nivel mundial que también afectará a los sistemas de escritorio.
Para satisfacer la creciente demanda, Nvidia comenzó a envíar sus GPUs de arquitectura H100 “Hopper” en el primer trimestre y anunció la próxima plataforma “Blackwell”, que promete un entrenamiento e inferencia de IA de 4 a 30 veces más rápido que su predecesora. Se espera que más de 100 sistemas Blackwell de los principales fabricantes de computadoras se lancen este año para facilitar la adopción generalizada.
Huang destacó que la plataforma integral de IA de Nvidia ofrece una ventaja competitiva significativa frente a soluciones más limitadas, a medida que las cargas de trabajo de IA siguen evolucionando. Anticipa que la demanda de las arquitecturas Hopper, Blackwell y futuras superará la oferta durante el próximo año en medio del auge de GenAI.
A pesar de un ingreso récord de $26 mil millones en el primer trimestre, Nvidia enfrenta una demanda que supera con creces su capacidad de suministrar GPUs de IA. “Estamos corriendo todos los días”, comentó Huang, reflejando la presión constante para cumplir con los pedidos. Reconoció que la demanda de la GPU insignia H100 continuará excediendo la oferta, incluso a medida que aumente la producción de la arquitectura Blackwell.
Huang indicó la ventaja competitiva que obtienen las empresas que llegan primero al mercado con modelos de IA innovadores, señalando: “La próxima compañía que alcance el siguiente gran hito podrá anunciar una IA revolucionaria.” La urgencia es palpable, con proveedores de nube y startups de IA luchando por asegurar capacidad de GPU para superar a sus competidores. Prevén que la escasez de suministro persistirá hasta bien entrado 2024.
Huang reveló cómo los proveedores de nube pueden obtener significativos retornos financieros al alojar modelos de IA en las plataformas de Nvidia. “Por cada $1 gastado en infraestructura de IA de Nvidia, los proveedores de nube pueden ganar $5 en ingresos de alojamiento en cuatro años”, explicó.
Ilustró esto con un ejemplo de un modelo de lenguaje de 70 mil millones de parámetros utilizando las últimas GPUs H200 de Nvidia, afirmando que un solo servidor puede generar 24,000 tokens por segundo y soportar 2,400 usuarios concurrentes. “Esto significa que por cada $1 gastado en servidores H200 de Nvidia, un proveedor de API puede generar $7 en ingresos durante cuatro años”, afirmó Huang.
Las mejoras continuas en el software de Nvidia también están optimizando el rendimiento de inferencia de sus GPUs, logrando un aumento de 3X en la H100 y reduciendo costos para los clientes. Este excepcional retorno de inversión está impulsando la demanda de grandes proveedores de nube como Amazon, Google, Meta, Microsoft y Oracle, que compiten por expandir su capacidad de IA y atraer desarrolladores.
Aunque Nvidia es reconocida sobre todo por sus GPUs, también está realizando un esfuerzo significativo en redes de centros de datos con su tecnología Infiniband. En el primer trimestre, Nvidia reportó un sólido crecimiento en redes, impulsado por un incremento en la adopción de Infiniband. Huang identificó a Ethernet como una gran oportunidad para Nvidia, con el lanzamiento de su plataforma Spectrum-X, optimizada para cargas de trabajo de IA a través de Ethernet. “Spectrum-X abre un mercado completamente nuevo para la red de Nvidia, permitiendo que los centros de datos solo de Ethernet soporten IA a gran escala", dijo, proyectando que evolucionará a una línea de productos de miles de millones de dólares en un año.
Los resultados récord de Nvidia en el primer trimestre fueron impulsados por un rendimiento excepcional en los segmentos de Data Center y Gaming, con ingresos totales alcanzando los $26 mil millones—un aumento secuencial del 18% y un incremento interanual del 262%. El negocio de Data Center fue el principal motor de crecimiento, generando $22.6 mil millones y experimentando un asombroso aumento del 427% interanual. La CFO Colette Kress destacó que los ingresos por computación aumentaron más de cinco veces y los ingresos por redes crecieron más de tres veces respecto al año anterior.
Los ingresos del sector Gaming alcanzaron los $2.65 mil millones, reflejando una caída estacional del 8% pero un aumento del 18% interanual, mientras que los ingresos de Visualización Profesional y Automotriz también mostraron un crecimiento positivo interanual.
Para el segundo trimestre, Nvidia proyecta ingresos aproximados de $28 mil millones, más o menos un 2%, con un crecimiento secuencial anticipado en todas las plataformas de mercado.
Las acciones de Nvidia aumentaron un 5.9% en el comercio después del cierre, alcanzando los $1,005.75 tras anunciar un desdoblamiento de acciones de 10 por 1.