Nvidia und Intel starten bahnbrechende HPC-Initiativen zur Verbesserung von KI-Technologien auf der SC2023.

Die schnellsten Supercomputer der Welt entwickeln sich rasant weiter, angeführt von Nvidia und Intel, die die Rechenleistung insbesondere für KI-Anwendungen steigern wollen. Auf der Supercomputing 2023 (SC23) Konferenz in Denver wurden die neuesten Rankings der 500 leistungsstärksten Supercomputer vorgestellt. Auffällig ist, dass alle diese Systeme Komponenten von Nvidia oder Intel verwenden, oft sogar beide. Die Konferenz bietet auch eine Plattform für die Diskussion über die nächste Generation von Supercomputern und die Technologien, die sie einsetzen, sowie deren Verwendungsziele.

Nvidia präsentiert den JUPITER-Supercomputer, der im Forschungszentrum Jülich in Deutschland gehostet wird. Mit 24.000 Nvidia GH200-Chips soll er der leistungsstärkste KI-Supercomputer werden und über 90 Exaflops Leistung für KI-Training erreichen. Zudem führt das Unternehmen neue Technologien zur Beschleunigung von KI ein, darunter die H200 und eine fortschrittliche Quad-Konfiguration des Grace Hopper GH200-Superchips.

Intel hingegen fördert seinen Aurora-Supercomputer, der im Argonne National Laboratory des Energieministeriums entwickelt wurde. Aurora wird die Entwicklung eines bahnbrechenden großen Sprachmodells (LLM) mit 1 Billion Parametern unterstützen. Intel stellt auch Fortschritte bei der KI-Beschleunigung und GPU-Technologie vor und positioniert sich stark gegen Nvidia.

Nvidias Grace Hopper Superchip: Ein Durchbruch für Künstliche Intelligenz

Der Grace Hopper Superchip von Nvidia, der CPU- und GPU-Funktionen kombiniert, ging im Mai in die volle Produktion. Diese Chips sind nun integraler Bestandteil der leistungsstärksten Supercomputer. „Mit der Einführung des Grace Hopper entsteht eine neue Generation von KI-Supercomputern“, erklärte Dion Harris, Director für Accelerated Data Center Product Solutions bei Nvidia.

Der Grace Hopper GH200 treibt den JUPITER-Supercomputer an, der für Anwendungen in der Wettervorhersage, der Arzneimittelforschung und im Ingenieurwesen konzipiert ist. JUPITER, gebaut in Zusammenarbeit mit ParTec, Eviden und SiPearl, nutzt eine Quad-GH200-Architektur, die die Leistung durch den Einsatz von vier GH200-Chips in einem einzigen Knoten erheblich steigert. „Die Quad-GH200-Architektur bietet eine innovative Knotenstruktur mit 288 Neoverse ARM-Kernen und erreicht 16 Petaflops KI-Leistung sowie 2,5 Terabyte pro Sekunde schnellen Speicher“, erläuterte Harris. Dieses System vernetzt 24.000 GH200-Chips über Nvidias Quantum-2 InfiniBand-Netzwerk. Nvidia plant, die Quad-GH200-Architektur auch auf andere Supercomputer auszuweiten.

Darüber hinaus präsentiert Nvidia den eigenständigen H200-Siliziumchip, eine diskrete GPU, die auf Nvidia HGX H200 Server-Boards verfügbar sein wird. „Die HGX H200 Plattform, ausgestattet mit schnellerem Hochgeschwindigkeitsspeicher, bietet außergewöhnliche Leistungen für HPC- und KI-Inference-Workloads“, fügte Harris hinzu.

Intels Fortschritte in der Supercomputing-Technologie

Intel macht auf der SC23 bemerkenswerte Fortschritte mit seinen Technologien für Hochleistungsrechnen und KI. Ogi Brkic, VP und General Manager für Data Center und AI/HPC-Lösungen bei Intel, sprach über die Initiativen des Unternehmens zur Beschleunigung von KI und HPC.

Brkic hob die Intel Data Center GPU Max-Serie und den Intel Habana Gaudi 2-Beschleuniger als zentrale Komponenten für bedeutende Supercomputing-Projekte hervor, darunter den Dawn Phase 1-Supercomputer an der Universität Cambridge, der derzeit der schnellste KI-Supercomputer im Vereinigten Königreich ist. Er verfügt über 512 Intel Xeon-CPUs und 1.024 Intel Data Center GPU Max-Serie GPUs.

Aurora, ein weiteres ehrgeiziges Projekt, wird in den USA von Intel, HP Enterprise und dem Energieministerium konstruiert. Dieser Supercomputer wird eines der größten großen Sprachmodelle, AuroraGPT, entwickeln, das aus 1 Billion Parametern für die wissenschaftliche Forschung bestehen wird. Aktuell wird es über 64 Knoten trainiert, mit dem Ziel, es über 10.000 Knoten zu skalieren.

„Wir haben mit Microsoft Deepspeed-Optimierungen zusammengearbeitet, um sicherzustellen, dass dieses LLM mit 1 Billion Parametern für alle zugänglich ist“, bemerkte Brkic. „Die potenziellen Anwendungen dieses Modells decken alle wissenschaftlichen Disziplinen ab, einschließlich Biologie, Chemie, Arzneimittelforschung und Kosmologie.“

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles