Nvidia lance des GPU Blackwell de nouvelle génération : réalisez des économies de coûts et d'énergie jusqu'à 25 fois !

Nvidia a lancé ses unités de traitement graphique (GPUs) Blackwell de nouvelle génération, offrant une efficacité énergétique 25 fois supérieure et des coûts réduits pour les tâches de traitement de l'IA. Le nouveau superchip Nvidia GB200 Grace Blackwell combine plusieurs puces dans un seul package, promettant jusqu'à 30 fois d'amélioration des performances pour les charges de travail d'inférence des modèles de langage de grande taille (LLM) par rapport aux modèles précédents. Lors d'une présentation lors de Nvidia GTC 2024, le PDG Jensen Huang a souligné que Blackwell représente une avancée cruciale en informatique, avec des projets de produits de jeu à venir.

Huang a humoristiquement noté que les prototypes présentés étaient évalués à 10 milliards et 5 milliards de dollars, soulignant l'importance du système Grace Blackwell. « Depuis trente ans, nous poursuivons l'informatique accélérée pour permettre des percées dans l'apprentissage profond et l'IA, a-t-il déclaré. L'IA générative façonne notre époque, et les GPUs Blackwell seront moteurs de cette révolution industrielle dans tous les secteurs. »

Nvidia affirme que les systèmes basés sur Blackwell permettront aux organisations de déployer l'IA générative en temps réel sur des modèles à un billion de paramètres, avec des coûts et une consommation d'énergie 25 fois inférieurs à l'architecture Hopper. Les capacités de traitement évolueront pour des modèles comportant jusqu'à 10 trillions de paramètres.

Alors qu'Nvidia cherche à maintenir son avantage concurrentiel face à des entreprises comme Groq, spécialisées dans les puces d'inférence, et à des concurrents haut de gamme comme Cerebras, AMD et Intel, les avancées de Blackwell offrent des gains significatifs en matière de coûts et d'efficacité énergétique par rapport à ses prédécesseurs.

Nommée d'après le mathématicien David Harold Blackwell, le premier universitaire afro-américain admis à l'Académie nationale des sciences, la plateforme Blackwell succède à l'architecture Hopper de Nvidia, établissant de nouvelles références en informatique accélérée. Conçues à l'origine pour le graphisme de jeux, les GPUs sont devenues l'épine dorsale du traitement de l'IA, propulsant la capitalisation boursière de Nvidia à 2,2 trillions de dollars et attirant l'attention des médias lors d'événements comme Nvidia GTC.

La plateforme introduit six technologies innovantes ayant le potentiel de transformer divers domaines, y compris le traitement des données, la simulation d'ingénierie, l'automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l'informatique quantique et l'IA générative. Huang a affirmé que Blackwell sera la puce la plus puissante au monde, avec 208 milliards de transistors fabriqués grâce au processus avancé 4NP de TSMC, offrant ainsi des capacités de traitement améliorées. Le moteur de transformateur de deuxième génération intègre un support de mise à l'échelle micro-tenseur et une gestion dynamique avancée de la plage, doublant la capacité de calcul et introduisant des capacités d'inférence IA à virgule flottante 4 bits.

Nvidia a également lancé sa technologie de mise en réseau NVLink de cinquième génération, permettant un débit élevé pour les modèles IA à plusieurs billions de paramètres. La dernière itération de NVLink offre un débit bidirectionnel de 1,8 To/s par GPU, facilitant la communication entre jusqu'à 576 GPUs pour des modèles LLM complexes. De plus, le moteur RAS intégré aux GPUs Blackwell améliore la fiabilité du système et réduit les coûts d'exploitation grâce à la maintenance basée sur l'IA.

L'architecture Blackwell sera intégrée aux principaux systèmes de serveurs. Grâce à ses capacités avancées de calcul confidentiel, elle protège les modèles IA et les données clients tout en maintenant une performance élevée, essentielle pour les secteurs sensibles à la vie privée. Le moteur de décompression dédié accélère les requêtes de bases de données, améliorant les performances d'analyse et de traitement des données.

Le système rack Nvidia GB200 NVL72, offrant 1,4 exaflop de performance IA et 30 To de mémoire rapide, est construit autour du superchip Blackwell. Les principaux fournisseurs de cloud et leaders de l'IA, y compris Amazon, Google, Meta, Microsoft et OpenAI, devraient adopter cette plateforme, indiquant un changement majeur dans les capacités computationnelles.

Le GB200 Grace Blackwell Superchip relie deux GPUs Nvidia B200 Tensor Core au CPU Nvidia Grace via un lien ultra-basse consommation de 900 Go/s, réalisant une augmentation de performance allant jusqu'à 30 fois par rapport au GPU Nvidia H100 Tensor Core pour l'inférence LLM tout en réduisant les coûts et la consommation d'énergie jusqu'à 25 fois.

Le GB200 est un composant crucial du système NVL72 multi-nœud, refroidi par liquide, qui associe 36 superchips Grace Blackwell, comportant 72 GPUs Blackwell et 36 CPUs Grace interconnectés via la cinquième génération de NVLink. De plus, le système intègre les unités de traitement de données Nvidia BlueField-3 pour améliorer le réseau cloud, la sécurité des données et la flexibilité de calcul GPU pour les applications IA hyperscale.

La carte serveur HGX B200 de Nvidia interconnecte huit GPUs B200 pour supporter les principales plateformes d'IA générative basées sur x86, offrant des vitesses de mise en réseau allant jusqu'à 400 Gb/s grâce aux technologies Quantum-2 InfiniBand et Spectrum-X Ethernet de Nvidia. Le GB200 sera également disponible sur Nvidia DGX Cloud, une plateforme IA co-développée avec de grands fournisseurs de services cloud, fournissant aux développeurs les outils essentiels pour construire des modèles avancés d'IA générative. Des entreprises comme Cisco, Dell Technologies, Hewlett Packard Enterprise, Lenovo et Supermicro, ainsi que plusieurs autres, devraient proposer une variété de serveurs basés sur la technologie Blackwell.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles