Nvidia ha lanzado sus unidades de procesamiento gráfico (GPUs) de próxima generación, Blackwell, que ofrecen 25 veces más eficiencia energética y costos reducidos para tareas de procesamiento de inteligencia artificial (IA). El nuevo superchip Nvidia GB200 Grace Blackwell combina múltiples chips en un solo paquete, prometiendo hasta 30 veces de mejora en el rendimiento para cargas de trabajo de inferencia de modelos de lenguaje grande (LLM) en comparación con modelos anteriores. Durante una presentación magistral en el Nvidia GTC 2024, el CEO Jensen Huang destacó a Blackwell como un avance clave en la computación, anticipando productos para videojuegos en el futuro.
Huang mencionó de manera humorística que los prototipos que mostró estaban valorados en 10 mil millones y 5 mil millones de dólares, subrayando la importancia del sistema Grace Blackwell. “Durante tres décadas, hemos buscado la computación acelerada para propiciar avances en el aprendizaje profundo y la IA”, afirmó. “La IA generativa está definiendo nuestra era, y las GPUs Blackwell impulsarán esta revolución industrial en todos los sectores”.
Nvidia asegura que los sistemas basados en Blackwell permitirán a las organizaciones implementar IA generativa en tiempo real sobre modelos de un trillón de parámetros, reduciendo costos y consumo energético hasta 25 veces en comparación con la arquitectura Hopper. Las capacidades de procesamiento se escalarán a modelos de hasta 10 trillones de parámetros.
A medida que Nvidia busca mantener su ventaja competitiva frente a empresas como Groq, centrada en chips de inferencia, y competidores de CPU de alto rendimiento como Cerebras, AMD e Intel, los avances de Blackwell presentan significativas eficiencias en costo y energía en relación a su predecesor.
Nombrada en honor al matemático David Harold Blackwell, el primer académico negro en ser incluido en la Academia Nacional de Ciencias, la plataforma Blackwell sucede a la arquitectura Hopper de Nvidia, estableciendo nuevos estándares en computación acelerada. Originalmente diseñada para gráficos de videojuegos, las GPUs se han convertido en el soporte de procesamiento de IA, elevando la capitalización de mercado de Nvidia a 2.2 billones de dólares y atrayendo la atención mediática en eventos como el Nvidia GTC.
La plataforma presenta seis tecnologías innovadoras que podrían transformar diversos sectores, incluyendo procesamiento de datos, simulaciones de ingeniería, automatización de diseño electrónico, diseño asistido por computadora en farmacología, computación cuántica e IA generativa. Huang afirmó que Blackwell será el chip más poderoso del mundo, con 208 mil millones de transistores fabricados utilizando el avanzado proceso 4NP de TSMC, mejorando así las capacidades de procesamiento. El motor de transformador de segunda generación incluye soporte para escalado de micro-tensores y gestión avanzada del rango dinámico, duplicando la capacidad de computación e introduciendo capacidades innovadoras de inferencia de IA en punto flotante de 4 bits.
Nvidia también ha lanzado su tecnología de red NVLink de quinta generación, que permite un alto rendimiento para modelos de IA de varios trillones de parámetros. La última iteración de NVLink proporciona un rendimiento bidireccional de 1.8 TB/s por GPU, facilitando la comunicación fluida entre hasta 576 GPUs para LLM complejos. Además, el motor RAS integrado en las GPUs Blackwell mejora la confiabilidad del sistema y reduce costos operativos mediante mantenimiento basado en IA.
La arquitectura Blackwell será integral para los principales sistemas de servidores. Con capacidades avanzadas de computación confidencial, protege modelos de IA y datos de clientes mientras mantiene un alto rendimiento, fundamental para industrias sensibles a la privacidad. El motor de descompresión dedicado acelera las consultas de bases de datos, mejorando el rendimiento en análisis y procesamiento de datos.
El Nvidia GB200 NVL72, un sistema de escalado en rack que ofrece 1.4 exaflops de rendimiento en IA y 30TB de memoria rápida, está construido alrededor del superchip Blackwell. Se espera que proveedores de nube y líderes en IA como Amazon, Google, Meta, Microsoft y OpenAI adopten esta plataforma, lo que indica un cambio importante en las capacidades computacionales.
El superchip GB200 Grace Blackwell conecta dos GPUs Nvidia B200 Tensor Core a la CPU Grace de Nvidia a través de un enlace de ultra-bajo consumo de 900GB/s, logrando un aumento en el rendimiento de hasta 30 veces sobre la GPU Nvidia H100 Tensor Core para inferencia LLM, mientras reduce costos y consumo energético en hasta 25 veces.
El GB200 es un componente crucial del sistema NVL72 de múltiples nodos y refrigeración líquida que combina 36 superchips Grace Blackwell, con 72 GPUs Blackwell y 36 CPUs Grace interconectadas a través de NVLink de quinta generación. Además, el sistema integra unidades de procesamiento de datos Nvidia BlueField-3 para mejorar la red en la nube, la seguridad del almacenamiento y la flexibilidad de computación GPU para aplicaciones de IA a gran escala.
La placa de servidor HGX B200 de Nvidia interconecta ocho GPUs B200 para soportar plataformas líderes de IA generativa basadas en x86, ofreciendo velocidades de red de hasta 400Gb/s a través de tecnologías Nvidia Quantum-2 InfiniBand y Spectrum-X Ethernet.
El GB200 también estará disponible en Nvidia DGX Cloud, una plataforma de IA co-desarrollada con importantes proveedores de servicios en la nube, proporcionando a los desarrolladores herramientas esenciales para construir modelos avanzados de IA generativa. Se espera que empresas como Cisco, Dell Technologies, Hewlett Packard Enterprise, Lenovo y Supermicro, entre otras, ofrezcan una variedad de servidores basados en la tecnología Blackwell.