Eine Koalition führender Unternehmen der Rechenzentrumstechnologie hat die Ultra Accelerator Link (UALink) Promoter Group gegründet, um neue Methoden zur Skalierung von KI-Systemen in Rechenzentren voranzutreiben.
Schlüsselakteure der Branche vereinen sich
Top-Unternehmen wie Advanced Micro Devices (AMD), Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta und Microsoft haben sich zusammengeschlossen, um einen Branchenstandard zu entwickeln, der die Hochgeschwindigkeits- und Niedriglatenzkommunikation für KI-Systeme in Rechenzentren verbessert.
Einführung von UALink
Die UALink-Initiative hat zum Ziel, einen offenen Branchenstandard zu schaffen, der es KI-Beschleunigern ermöglicht, effektiver zu kommunizieren. Dies fördert eine bessere Integration, Flexibilität und Skalierbarkeit für KI-gestützte Rechenzentren. Durch die Schaffung einer Interconnect-Lösung auf Basis offener Standards wird UALink sowohl Systemherstellern (OEMs) als auch IT-Profis und Systemintegratoren zugutekommen.
Forrest Norrod, General Manager der Data Center Solutions Group bei AMD, betonte die Bedeutung dieser Zusammenarbeit: „Die UALink-Bemühungen, ein offenes, leistungsstarkes Beschleuniger-Netzwerk aufzubauen, sind entscheidend für die Zukunft von KI. Unser gemeinsames Fachwissen wird offene Standards vorantreiben und das KI-Ökosystem stärken.“
Bemerkenswerte Ausnahmen
Obwohl die Promoter Group über umfassende Erfahrung in großangelegter KI und Hochleistungsrechnen verfügt, ist der führende KI-Chip-Hersteller Nvidia nicht Teil der Gruppe.
Engagement für offene Standards
Jas Tremblay, VP der Data Center Solutions Group bei Broadcom, erklärte: „Als Gründungsmitglied des UALink-Konsortiums verfolgen wir das Ziel, die Einführung großangelegter KI-Technologie in Rechenzentren zu fördern. Die Unterstützung eines offenen Ökosystems ist entscheidend, um skalierbare Netzwerke mit verschiedenen Hochgeschwindigkeits- und Niedriglatenzlösungen zu ermöglichen.“
Effektives Skalieren von KI-Lasten
Mit dem wachsenden Bedarf an KI-Berechnungen ist es unerlässlich, ein robustes, latenzarmes Netzwerk zu schaffen, das problemlos zusätzliche Rechenressourcen integrieren kann. Die UALink-Gruppe hat sich zum Ziel gesetzt, Spezifikationen zu standardisieren, um eine leistungsstarke Umgebung für KI-Lasten zu schaffen und die Leistung zu maximieren.
Die Gruppe plant die Entwicklung einer Spezifikation, die die Schnittstelle für KI und maschinelles Lernen, Hochleistungsrechnen (HPC) und Cloud-Anwendungen in zukünftigen KI-Rechenzentren optimiert. Ihr Ziel ist es, eine Hochgeschwindigkeits-Niedriglatenz-Interconnect-Lösung für eine nahtlose Kommunikation zwischen Beschleunigern und Switches in KI-Computing-Pods zu definieren.
Die bevorstehende Spezifikation 1.0 soll Verbindungen für bis zu 1.024 Beschleuniger in einem einzigen KI-Computing-Pod ermöglichen und direkte Zugriffe auf den Speicher von Beschleunigern, wie GPUs, erleichtern.
Ausblick
Die UALink Promoter Group plant bald die Gründung des UALink-Konsortiums, das voraussichtlich im dritten Quartal 2024 offiziell wird. Die Spezifikation 1.0 wird im selben Zeitraum für die Mitglieder des Konsortiums veröffentlicht.
Über UALink
Der Ultra Accelerator Link (UALink) ist eine hochmoderne Technologie für die Interconnect von Beschleunigern, die darauf abzielt, die Leistung zukünftiger KI- und Machine Learning (ML)-Cluster zu verbessern. AMD, Broadcom, Cisco, Google, HPE, Intel, Meta und Microsoft engagieren sich für die Bildung eines offenen Standardgremiums zur Entwicklung technischer Spezifikationen, die bahnbrechende Leistungen unterstützen und ein offenes Ökosystem für Rechenzentrumsbeschleuniger fördern.
Martin Lund, EVP der Common Hardware Group bei Cisco, bemerkte: „Mit dem Wachstum der KI-Lasten werden ultraschnelle Interconnects entscheidend sein. Unser gemeinsames Ziel ist es, den UALink zu schaffen, eine skalierbare, offene Lösung, die die Herausforderungen beim Bau von KI-Supercomputern angeht.“