Nvidia réalise des avancées significatives dans le domaine de l'informatique lors de la conférence GTC en cours à San Jose. Le PDG Jensen Huang, vêtu d'une veste en cuir noire, a captivé un public enthousiaste lors de son discours d'ouverture. Il a dévoilé le très attendu Superchip GB200 Grace Blackwell, offrant jusqu'à 30 fois d'augmentation de performance pour les charges de travail d'inférence des grands modèles de langage (LLM). Huang a également mis en avant des progrès dans l'automobile, la robotique, l'Omniverse et la santé, suscitant un fort engouement en ligne.
Aucune session de la GTC n'est complète sans mettre en avant des partenariats industriels. Nvidia a présenté ses collaborations renforcées avec de grandes entreprises technologiques, intégrant sa nouvelle infrastructure, ses logiciels et ses services de calcul AI. Voici un résumé des partenariats clés annoncés :
AWS
Nvidia a annoncé qu’AWS proposera sa nouvelle plateforme Blackwell, avec le GB200 NVL72 comprenant 72 GPU Blackwell et 36 CPU Grace, sur des instances EC2. Cette intégration permettra aux clients de construire et exécuter efficacement des inférences en temps réel sur des LLM de plusieurs trillions de paramètres à grande échelle et à moindre coût qu'auparavant. De plus, les entreprises introduisent 20 736 superchips GB200 dans le projet Ceiba, un superordinateur AI développé exclusivement sur AWS, et intégreront Amazon SageMaker avec les microservices d'inférence NIM de Nvidia.
Google Cloud
Google Cloud intégrera également la plateforme Grace Blackwell et les microservices NIM de Nvidia dans son infrastructure cloud. La société a annoncé son soutien à JAX, un cadre Python pour l'entraînement haute performance de LLM sur les GPU Nvidia H100, facilitant le déploiement du cadre Nvidia NeMo via Google Kubernetes Engine (GKE) et l'outil HPC Google Cloud. Vertex AI soutiendra également les VM Google Cloud A3 alimentées par des GPU H100 de NVIDIA et les VM G2 alimentées par des GPU Tensor Core NVIDIA L4.
Microsoft
Microsoft a confirmé son intention d'ajouter des microservices NIM et Grace Blackwell à Azure, parallèlement à la nouvelle plateforme de mise en réseau Quantum-X800 InfiniBand. L’entreprise intègre également DGX Cloud avec Microsoft Fabric pour simplifier le développement de modèles AI sur mesure et rendra les nouvelles API Omniverse Cloud disponibles sur la plateforme Azure Power. Dans le domaine de la santé, Azure utilisera la suite de microservices Clara de Nvidia et DGX Cloud pour soutenir l'innovation rapide dans la recherche clinique et les soins.
Oracle
Oracle exploitera la plateforme de calcul Grace Blackwell à travers les instances OCI Supercluster et OCI Compute, en adoptant le superchip GB200 de Nvidia et le GPU Tensor Core B200. Ils ont annoncé que les microservices NIM et CUDA-X de Nvidia, y compris le NeMo Retriever pour les déploiements d'inférence RAG, amélioreront l'intelligence et la précision des applications d'IA générative des clients OCI.
SAP
SAP collabore avec Nvidia pour intégrer l'IA générative dans ses solutions cloud, y compris SAP Datasphere et SAP Business Technology Platform. L'entreprise développe également des capacités supplémentaires d'IA générative au sein de SAP BTP en utilisant le service de fonderie d'IA générative de Nvidia, lequel inclut le supercalcul DGX Cloud et le logiciel AI Enterprise de Nvidia.
IBM
IBM Consulting prévoit de combiner sa technologie et son expertise sectorielle avec le logiciel AI Enterprise de Nvidia, y compris les nouveaux microservices NIM et les technologies Omniverse. Cette collaboration vise à accélérer les flux de travail AI pour les clients, optimiser les cas d'utilisation et faciliter le développement de solutions AI spécifiques à l'industrie, y compris les applications de jumeaux numériques pour la chaîne d'approvisionnement et la fabrication.
Snowflake
Snowflake a étendu son partenariat avec Nvidia pour inclure l'intégration avec NeMo Retriever, un microservice d'IA générative qui connecte des LLM personnalisés aux données d'entreprise. Cette amélioration optimisera la performance et l’évolutivité des applications de chatbot développées avec Snowflake Cortex. De plus, cette collaboration inclut le logiciel Nvidia TensorRT à faible latence pour les applications d'inférence d'apprentissage profond.
Outre Snowflake, d'autres fournisseurs de plateformes de données, tels que Box, Dataloop, Cloudera, Cohesity, Datastax et NetApp, se sont engagés à utiliser les microservices de Nvidia, en particulier la nouvelle technologie NIM, pour optimiser les pipelines RAG et intégrer des données propriétaires dans des applications d'IA générative.
La GTC 2024 de Nvidia est prévue du 18 au 21 mars à San Jose et en ligne.