Nvidia Blackwell Systeme von Computerherstellern gestartet, um die KI-Implementierung zu verbessern.

Nvidia CEO Jensen Huang kündigte auf der Computex die Einführung von Systemen an, die auf der Nvidia Blackwell-Architektur basieren und von führenden Computerherstellern weltweit angeboten werden. Diese Systeme verwenden Grace-CPUs und Nvidia-Netzwerklösungen, die Unternehmen den Aufbau von KI-Fabriken und fortschrittlichen Rechenzentren ermöglichen.

Die Nvidia Blackwell-GPUs bieten eine 25-fache Energieeffizienz und senken die Kosten für KI-Verarbeitungsaufgaben. Der innovative Nvidia GB200 Grace Blackwell Superchip integriert mehrere Chips in einem Paket und sorgt für bemerkenswerte Leistungssteigerungen, mit bis zu 30-fachen Leistungssteigerungen bei Inferenzaufgaben für große Sprachmodelle (LLMs) im Vergleich zu Vorgängermodellen.

Im Fokus der generativen KI stehen namhafte Unternehmen wie ASRock Rack, Asus, Gigabyte, Ingrasys, Inventec, Pegatron, QCT, Supermicro, Wistron und Wiwynn, die Cloud-, On-Premises-, Embedded- und Edge-AI-Systeme mit Nvidias GPUs und fortschrittlichem Networking bereitstellen.

Huang erklärte: „Die nächste industrielle Revolution hat begonnen. Unternehmen und Staaten kooperieren mit Nvidia, um Billionen-Dollar-Traditionseinrichtungen in beschleunigte Rechenumgebungen zu verwandeln und einen neuen Typ von Rechenzentrum - KI-Fabriken - aufzubauen, um künstliche Intelligenz zu produzieren.“ Er betonte den branchenweiten Wandel zu Nvidias Blackwell zur Förderung KI-gestützter Innovationen in allen Bereichen.

Um Anwendungen aller Art zu bedienen, werden sowohl Einzel- als auch Multi-GPU-Konfigurationen sowie verschiedene Prozessormöglichkeiten (von x86 bis Grace-basiert) und Luft- zu Flüssigkeitskühltechnologien angeboten.

Um die Entwicklung vielfältiger Systeme zu beschleunigen, unterstützt die Nvidia MGX-Modularreferenzdesign-Plattform nun Blackwell-Produkte, einschließlich der GB200 NVL2-Plattform, die für leistungsstarke Inferenz von großen Sprachmodellen, retrieval-unterstützte Generierung und Datenverarbeitung konzipiert wurde.

Asus-Chairman Jonney Shih erklärte: „ASUS arbeitet mit NVIDIA zusammen, um die Unternehmens-KI mit unserer robusten Serverreihe, die auf der COMPUTEX präsentiert wurde, zu verbessern. Unter Verwendung von NVIDIAs MGX- und Blackwell-Plattformen können wir maßgeschneiderte Rechenzentrumslösungen für eine Vielzahl von Workloads, einschließlich Training, Inferenz, Datenanalyse und Hochleistungsrechnen (HPC), bereitstellen.“

Die GB200 NVL2 ist ideal für aufstrebende Marktsysteme wie Datenanalyse, wo Unternehmen jährlich Milliarden investieren. Sie nutzt die Hochgeschwindigkeitsleistung des NVLink-C2C-Interconnects zusammen mit den speziellen Dekompressionsmaschinen von Blackwell für bis zu 18-fach schnellere Datenverarbeitung und eine 8-fache Verbesserung der Energieeffizienz im Vergleich zu x86-CPUs.

Nvidia MGX bietet Computerherstellern eine flexible Referenzarchitektur, die eine schnelle und kosteneffektive Gestaltung von über 100 verschiedenen Systemkonfigurationen ermöglicht. Hersteller können mit einer grundlegenden Serverarchitektur beginnen und GPUs, DPUs und CPUs auswählen, die auf spezifische Workloads zugeschnitten sind. Über 90 Systeme, die auf der MGX-Architektur von mehr als 25 Partnern basieren, wurden veröffentlicht oder befinden sich in der Entwicklung, im Vergleich zu 14 Systemen von sechs Partnern im letzten Jahr. Diese Plattform kann die Entwicklungskosten um bis zu 75 % senken und die Entwicklungszeit auf nur sechs Monate verkürzen.

AMD und Intel unterstützen ebenfalls die MGX-Architektur mit eigenen CPU-Host-Prozessormodulen, einschließlich der nächsten Generation der AMD Turin-Plattform und Intel Xeon 6 Prozessoren mit P-Kernen. Serverbuilder können diese Referenzdesigns nutzen, um die Entwicklung zu optimieren und gleichzeitig eine konsistente Leistung sicherzustellen.

Nvidias GB200 NVL2 integriert sich mit MGX und Blackwell und bietet ein skalierbares Ein-Nodes-Design, das zahlreiche Konfigurationen und nahtlose Netzwerkoptionen unterstützt, um die Rechenkapazitäten in bestehenden Rechenzentrumsinfrastrukturen zu beschleunigen.

Nvidia Blackwell verfügt über beeindruckende 208 Milliarden Transistoren und profitiert von einem robusten Partnerökosystem, das TSMC, den führenden Halbleiterhersteller, und andere globale Elektronikhersteller umfasst, die wesentliche Komponenten für KI-Fabriken bereitstellen. Partner wie Amphenol, AVC, Cooler Master, CPC, Danfoss, Delta Electronics und LITEON entwickeln Innovationen in Server-Racks, Energieversorgung, Kühlungslösungen und mehr.

Diese Infrastruktur verbessert die Rechenzentrumskapazitäten, um den Anforderungen von Unternehmen weltweit gerecht zu werden, unterstützt durch Blackwell-Technologie, NVIDIA Quantum-2 oder Quantum-X800 InfiniBand-Netzwerke, Nvidia Spectrum-X Ethernet-Netzwerke und NVIDIA BlueField-3 DPUs, die alle in Server von Dell Technologies, Hewlett Packard Enterprise und Lenovo integriert sind.

Die Nvidia AI Enterprise-Softwareplattform, die NIM-Inferenz-Microservices umfasst, ermöglicht es Unternehmen, produktionsfähige generative KI-Anwendungen zu erstellen und auszuführen.

Während seiner Eröffnungsrede hob Huang die rasche Einführung der Blackwell-Technologie durch führende Unternehmen in Taiwan hervor. Beispielsweise plant das Chang Gung Memorial Hospital die Nutzung der Blackwell-Computing-Plattform für Fortschritte in der biomedizinischen Forschung und zur Optimierung klinischer Arbeitsabläufe.

Foxconn-CEO Young Liu bemerkte: „Da generative KI Industrien umgestaltet, ist Foxconn mit modernsten Lösungen vorbereitet, um verschiedene Rechenbedürfnisse zu decken. Wir nutzen die neueste Blackwell-Plattform in unseren Servern und liefern wichtige Komponenten für Nvidia, um die Markteinführungszeit für unsere Kunden zu verkürzen.“

Barry Lam, Vorsitzender von Quanta Computer, kommentierte: „In einer KI-gesteuerten Welt ist Nvidia Blackwell nicht nur eine Energiequelle; sie entfacht diese industrielle Revolution. Wir arbeiten stolz mit Nvidia zusammen, um die Zukunft der generativen KI zu gestalten.“

Charles Liang, Präsident und CEO von Supermicro, fügte hinzu: „Unsere Bausteinarchitektur und Flüssigkeitskühlungslösungen ermöglichen es uns, schnell eine Vielzahl von Produkten auf Basis der Nvidia AI-Plattform anzubieten. Unsere Hochleistungs Systeme, die für die Blackwell-Architektur optimiert sind, bieten Kunden außergewöhnliche Rechenoptionen für KI-Anwendungen auf nächstem Niveau.“

C.C. Wei, CEO von TSMC, betonte: „TSMC arbeitet eng mit Nvidia zusammen, um die Halbleiterinnovation voranzutreiben, die ihre KI-Visionen unterstützt. Unsere fortschrittlichen Fertigungstechnologien waren entscheidend für die Entwicklung von Nvidias bahnbrechenden GPUs, einschließlich derjenigen, die auf der Blackwell-Architektur basieren.“

Most people like

Find AI tools in YBX