Nvidia a présenté ses systèmes les plus puissants à ce jour avec le lancement du DGX SuperPod lors de la conférence GTC de Nvidia. Ce système de pointe s'inscrit dans un déploiement matériel et logiciel complet. Au cours des dernières années, le DGX est devenu un pilier des offres serveur et cloud de Nvidia. Le nouveau DGX SuperPod est équipé des GPU de prochaine génération de Nvidia pour l'accélération de l'IA, connus sous le nom de Blackwell, qui succède au GPU Hopper. Blackwell est conçu pour prendre en charge des modèles IA comptant un trillion de paramètres.
Qu'est-ce que le DGX SuperPod ?
Le DGX SuperPod n'est pas un simple serveur ; c’est une configuration robuste de plusieurs systèmes DGX GB200. Chaque système intègre 36 Superchips Nvidia GB200, 36 processeurs Nvidia Grace et 72 GPU Nvidia Blackwell, tous connectés via le NVLink de cinquième génération de Nvidia. Cette plateforme de supercalcul peut évoluer pour inclure huit systèmes DGX GB200 ou plus, reliant des dizaines de milliers de Superchips GB200 grâce à Nvidia Quantum InfiniBand.
Le système dispose d'une mémoire impressionnante de 240 téraoctets, essentielle pour entraîner des modèles de langage de grande taille (LLMs) et réaliser des inférences d'IA générative à grande échelle. De plus, le DGX SuperPod offre une puissance de calcul AI stupéfiante de 11,5 exaflops.
Réseautage et traitement avancés
Une caractéristique clé du DGX SuperPod est son tissu informatique unifié, facilité par la nouvelle technologie de réseau Nvidia Quantum-X800 InfiniBand, qui offre jusqu'à 1 800 gigabits par seconde de bande passante à chaque GPU. Le système intègre également des unités de traitement de données Nvidia BlueField-3 (DPUs) ainsi que le NVLink de cinquième génération. En outre, le DGX SuperPod inclut la technologie SHARP (Scalable Hierarchical Aggregation and Reduction Protocol) de quatrième génération, fournissant 14,4 téraflops de calcul en réseau, représentant une augmentation quadruple par rapport à son prédécesseur.
Blackwell dans le Nvidia DGX Cloud
Les systèmes DGX basés sur GB200 seront bientôt disponibles via le service DGX Cloud de Nvidia, initialement accessible sur des plateformes majeures comme Amazon Web Services (AWS), Google Cloud et Oracle Cloud. Selon Ian Buck, VP de Hyperscale et HPC chez Nvidia, "le DGX Cloud est conçu en partenariat avec nos partenaires cloud pour offrir la meilleure technologie Nvidia pour notre recherche en IA et à nos clients." La nouvelle architecture GB200 renforcera également le supercalculateur Project Ceiba, que Nvidia développe avec AWS, visant à créer la plus grande plateforme de supercalcul cloud public au monde.
Buck a annoncé une avancée prometteuse : "Le Project Ceiba a évolué, désormais mis à niveau vers l'architecture Grace Blackwell supportant 20 000 GPU, permettant plus de 400 exaflops d'IA." Ces avancées placent Nvidia à la pointe de la technologie IA, faisant du DGX SuperPod un outil remarquable pour les industries impliquées dans la recherche et les applications d’IA.