Nvidia está logrando avances significativos en computación durante la actual conferencia GTC en San José. El CEO Jensen Huang, vestido con una chaqueta de cuero negro, cautivó a una multitud entusiasta durante su discurso inaugural. Presentó el muy esperado superchip GB200 Grace Blackwell, que promete hasta 30 veces más rendimiento para cargas de trabajo de inferencia de modelos de lenguaje grandes (LLM). Huang también destacó innovaciones en automoción, robótica, Omniverse y atención sanitaria, generando un gran revuelo en línea.
Ningún evento GTC está completo sin mostrar asociaciones de la industria. Nvidia reveló cómo está mejorando sus colaboraciones con grandes empresas tecnológicas, integrando su nueva infraestructura de computación de IA, software y servicios. A continuación, un resumen de las principales asociaciones anunciadas:
AWS
Nvidia anunció que AWS ofrecerá su nueva plataforma Blackwell, que incluye el GB200 NVL72 con 72 GPUs Blackwell y 36 CPUs Grace, en instancias EC2. Esta integración permitirá a los clientes construir y ejecutar inferencias en tiempo real en LLMs de varios billones de parámetros a mayor escala y menor costo que las GPUs Nvidia anteriores. Además, las empresas traerán 20,736 superchips GB200 al Proyecto Ceiba, un superordenador de IA desarrollado exclusivamente en AWS, e integrarán Amazon SageMaker con los microservicios NIM de Nvidia.
Google Cloud
Siguiendo el ejemplo, Google Cloud incorporará la plataforma Grace Blackwell de Nvidia y los microservicios NIM en su infraestructura en la nube. La empresa también anunció soporte para JAX, un marco nativo de Python para el entrenamiento de LLM de alto rendimiento en GPUs Nvidia H100, facilitando el despliegue del marco Nvidia NeMo a través de Google Kubernetes Engine (GKE) y la caja de herramientas Google Cloud HPC. Además, Vertex AI apoyará las máquinas virtuales A3 de Google Cloud impulsadas por GPUs NVIDIA H100 y las VMs G2 con GPUs Tensor Core NVIDIA L4.
Microsoft
Microsoft confirmó planes para añadir microservicios NIM y Grace Blackwell a Azure, junto con la nueva plataforma de red Quantum-X800 InfiniBand. Además, la empresa está integrando DGX Cloud con Microsoft Fabric para simplificar el desarrollo de modelos de IA personalizados y hará disponibles nuevas APIs de Omniverse Cloud en la plataforma Azure Power. En el sector salud, Azure utilizará la suite de microservicios Clara de Nvidia y DGX Cloud para respaldar la innovación rápida en investigación clínica y entrega de atención.
Oracle
Oracle planea aprovechar la plataforma de computación Grace Blackwell en OCI Supercluster y las instancias OCI Compute, adoptando tanto el superchip GB200 de Nvidia como la GPU Tensor Core B200. Anunciaron que los microservicios Nvidia NIM y CUDA-X, incluyendo el NeMo Retriever para despliegues de inferencia RAG, mejorarán la precisión y la profundidad de las aplicaciones de IA generativa de los clientes de OCI.
SAP
SAP se asocia con Nvidia para integrar IA generativa en sus soluciones en la nube, incluyendo SAP Datasphere, SAP Business Technology Platform, y RISE con SAP. La empresa también está desarrollando capacidades adicionales de IA generativa dentro de SAP BTP utilizando el servicio de fundición de IA generativa de Nvidia, que incluye supercomputación en DGX Cloud y software Nvidia AI Enterprise.
IBM
IBM Consulting planea combinar su experiencia tecnológica e industrial con el stack de software de IA Enterprise de Nvidia, que incluye nuevos microservicios NIM y tecnologías de Omniverse. Esta colaboración busca acelerar los flujos de trabajo de IA para los clientes, mejorar la optimización de casos de uso y facilitar el desarrollo de soluciones de IA específicas por industria, incluyendo aplicaciones de gemelos digitales para la cadena de suministro y la manufactura.
Snowflake
Snowflake ha ampliado su asociación con Nvidia para incluir la integración con NeMo Retriever, un microservicio de IA generativa que conecta LLM personalizados con datos empresariales. Esta mejora incrementará el rendimiento y la escalabilidad de las aplicaciones de chatbot desarrolladas con Snowflake Cortex. Además, la colaboración incluye software Nvidia TensorRT de baja latencia para aplicaciones de inferencia de aprendizaje profundo.
Además de Snowflake, otros proveedores de plataformas de datos, como Box, Dataloop, Cloudera, Cohesity, Datastax y NetApp, se han comprometido a utilizar microservicios de Nvidia, especialmente la nueva tecnología NIM, para optimizar canales RAG e integrar datos propietarios en aplicaciones de IA generativa.
La GTC 2024 de Nvidia está programada del 18 al 21 de marzo en San José y en línea.