Nvidia DGX SuperPOD: Die Kraft zur Unterstützung von KI-Modellen mit Billionen von Parametern entfalten

Nvidia hat auf der GTC-Konferenz seine leistungsstärksten Systeme vorgestellt: den DGX SuperPod. Dieses hochmoderne System ist Teil eines umfassenden Hardware- und Software-Rollouts. In den letzten Jahren ist der DGX zu einem zentralen Bestandteil von Nvidias Server- und Cloud-Angeboten geworden. Der neue DGX SuperPod ist mit Nvidias nächster GPU-Generation für KI-Beschleunigung, bekannt als Blackwell, ausgestattet, die als Nachfolger der Hopper-GPU eingeführt wird. Blackwell unterstützt KI-Modelle mit einer Billion Parametern.

Was ist der DGX SuperPod?

Der DGX SuperPod ist kein einzelner Server, sondern eine robuste Konfiguration aus mehreren DGX GB200-Systemen. Jedes System besteht aus 36 Nvidia GB200 Superchips, die 36 Nvidia Grace CPUs und 72 Nvidia Blackwell GPUs integrieren, alle verbunden über die fünfte Generation von Nvidia NVLink. Diese Supercomputing-Plattform kann auf acht oder mehr DGX GB200-Systeme skaliert werden und verbindet zehntausende GB200 Superchips über Nvidia Quantum InfiniBand. Das System bietet beeindruckende 240 Terabyte Speicher, entscheidend für das Training großer Sprachmodelle (LLMs) und die Durchführung von generativer KI-Inferenz im großen Maßstab. Darüber hinaus liefert der DGX SuperPod atemberaubende 11,5 Exaflops an KI-Supercomputing-Leistung.

Fortschrittliche Netzwerktechnologie und Verarbeitung

Ein zentrales Merkmal des DGX SuperPod ist das vereinheitlichte Compute-Fabric, ermöglicht durch die neu eingeführte Nvidia Quantum-X800 InfiniBand-Netzwerktechnologie, die jedem GPU eine Bandbreite von bis zu 1.800 Gigabyte pro Sekunde bietet. Das System integriert zudem Nvidia BlueField-3 Data Processing Units (DPUs) sowie fünfte Generation von Nvidia NVLink. Darüber hinaus enthält der DGX SuperPod die Technologie der vierten Generation von Nvidia Scalable Hierarchical Aggregation and Reduction Protocol (SHARP), die 14,4 Teraflops an In-Network Computing liefert – das ist eine vierfache Steigerung im Vergleich zu seinem Vorgänger.

Blackwell in der Nvidia DGX Cloud

Die auf GB200 basierenden DGX-Systeme werden bald über Nvidias DGX Cloud-Service verfügbar sein, der zunächst auf großen Plattformen wie Amazon Web Services (AWS), Google Cloud und Oracle Cloud zugänglich ist. Laut Ian Buck, VP von Hyperscale und HPC bei Nvidia, ist "DGX Cloud in Zusammenarbeit mit unseren Cloud-Partnern gestaltet worden, um die beste Technologie von Nvidia für unsere KI-Forschung und unsere Kunden bereitzustellen." Die neue GB200-Architektur wird auch den Supercomputer Project Ceiba verbessern, an dem Nvidia zusammen mit AWS arbeitet, um die weltweit größte öffentliche Cloud-Supercomputing-Plattform zu schaffen.

Buck kündigte eine spannende Entwicklung an: "Project Ceiba hat sich weiterentwickelt und unterstützt jetzt die Grace Blackwell-Architektur mit 20.000 GPUs, die über 400 Exaflops an KI ermöglicht." Diese Fortschritte positionieren Nvidia an der Spitze der KI-Technologie und machen den DGX SuperPod zu einem bemerkenswerten Werkzeug für Branchen, die in der KI-Forschung und -Anwendung tätig sind.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles