Cerebras präsentiert Condor Galaxy 3: Ein KI-Supercomputer mit einer Leistung von 8 ExaFLOPs

Cerebras und G42 haben offiziell den Condor Galaxy 3 eingeführt, einen bahnbrechenden KI-Supercomputer, der eine herausragende Leistung von acht exaFLOPS verspricht. Diese beeindruckende Fähigkeit wird durch 58 Millionen KI-optimierte Kerne ermöglicht, so Andrew Feldman, CEO von Cerebras mit Sitz in Sunnyvale, Kalifornien. G42, ein führendes Unternehmen für Cloud- und generative KI-Lösungen in Abu Dhabi, VAE, wird diesen Supercomputer nutzen, um modernste KI-Technologie bereitzustellen. Feldman betonte, dass dies einer der größten KI-Supercomputer der Welt sein wird.

Der Condor Galaxy 3 umfasst 64 Cerebras CS-3 Systeme, die den Wafer-Scale Engine 3 (WSE-3) nutzen, der als der schnellste KI-Chip der Branche gilt. Diese robuste Konfiguration ermöglicht es dem Computer, außergewöhnliche Leistungsmessungen zu erreichen und gleichzeitig gigantische KI-Modelle effizient zu trainieren. „Unser Ansatz besteht darin, enorme, hochmoderne KI-Supercomputer zu bauen, die sich von kleineren Clustern zu größeren Systemen entwickeln, die in der Lage sind, umfangreiche Modelle zu trainieren“, erklärte Feldman.

Cerebras verfolgt einen einzigartigen Ansatz im Chipdesign, indem mehrere Kerne auf einem Halbleiter-Wafer integriert werden, was die Kommunikationsgeschwindigkeit und die Gesamteffizienz erhöht. Diese innovative Methodik ermöglicht es, 900.000 Kerne auf einem einzelnen Wafer unterzubringen. Der Condor Galaxy 3 befindet sich in Dallas, Texas, und ist die dritte Erweiterung des Condor Galaxy Netzwerks. Die Zusammenarbeit zwischen Cerebras und G42 hat bereits zwei frühere Modelle hervorgebracht, die jeweils acht exaFLOPS liefern, was eine Gesamtleistung von 16 exaFLOPS ergibt. Bis Ende 2024 wird das Condor Galaxy Netzwerk eine AI-Rechenleistung von über 55 exaFLOPS überschreiten und plant insgesamt neun KI-Supercomputer.

Kiril Evtimov, Group CTO von G42, äußerte seine Begeisterung: „Condor Galaxy 3 verstärkt unsere gemeinsame Vision, die globale Landschaft des KI-Computings zu revolutionieren. Unser bestehendes Netzwerk hat bereits führende Open-Source-Modelle trainiert, und wir erwarten mit dieser verbesserten Leistung noch größere Innovationen.“

Die 64 Cerebras CS-3-Systeme im Condor Galaxy 3 werden durch den WSE-3, einen hochmodernen 5-Nanometer-KI-Chip, angetrieben, der bei gleicher Leistung und Kosten die doppelte Leistung des Vorgängermodells bietet. Mit vier Billionen Transistoren erreicht der WSE-3 eine Spitzenauslastung von 125 Petaflops mittels 900.000 KI-optimierter Kerne pro Chip.

„Wir sind stolz darauf, unsere CS-3-Systeme vorzustellen, die für unsere Zusammenarbeit mit G42 von entscheidender Bedeutung sind“, erklärte Feldman. „Mit jeder nachfolgenden Iteration des Condor Galaxy werden wir unsere Verarbeitungskapazitäten von 36 exaFLOPS auf über 55 exaFLOPS skalieren, was einen bedeutenden Fortschritt im KI-Computing darstellt.“

Der Condor Galaxy hat bereits verschiedene generative KI-Modelle trainiert, darunter Jais-30B und Med42. Das erste gilt als das weltweit führende zweisprachige arabische Modell und ist jetzt auf Azure Cloud verfügbar, während Med42, das in Partnerschaft mit M42 und Core42 entwickelt wurde, als klinisches Sprachmodell herausragt.

Geplant für den Launch im zweiten Quartal 2024 wird der Condor Galaxy 3 die Fähigkeiten von KI-Systemen weiter steigern. Darüber hinaus hat Cerebras den WSE-3-Chip angekündigt, der als der schnellste KI-Chip bislang einen neuen Rekord aufstellt. Der WSE-3 hält den gleichen Stromverbrauch aufrecht und bietet die doppelte Leistung des vorherigen WSE-2-Modells, was seine Position an der Spitze der KI-Technologie festigt.

Feldman stellte fest, dass das CS-3-System 97% weniger Code benötigt als GPUs, was es äußerst benutzerfreundlich macht. Das System kann Modelle mit 1 Milliarde bis 24 Billionen Parametern effizient trainieren und vereinfacht dadurch die Trainingsabläufe erheblich. Cerebras hat bereits einen starken Auftragsrückstand für das CS-3 von verschiedenen Sektoren, einschließlich Unternehmen und Regierungen, gesichert.

Rick Stevens, Associate Laboratory Director am Argonne National Laboratory, bemerkte das transformative Potenzial der Lösungen von Cerebras in der wissenschaftlichen und medizinischen KI-Forschung. Darüber hinaus hat Cerebras eine strategische Zusammenarbeit mit Qualcomm gegründet, um die Stärken beider Unternehmen zu nutzen. Diese Partnerschaft zielt darauf ab, die Leistung bei der KI-Inferenz durch optimiertes Modelltraining auf dem CS-3 um das Zehnfache zu steigern.

Feldman hob hervor: „Diese Zusammenarbeit mit Qualcomm ermöglicht es uns, Modelle zu trainieren, die für ihre Inferenz-Engine optimiert sind, wodurch die Inferenzkosten und die Zeit bis zur Kapitalrendite erheblich reduziert werden.“ Mit über 400 Ingenieuren im Team ist Cerebras bestrebt, unübertroffene Rechenleistung bereitzustellen, um die dringendsten Herausforderungen der heutigen KI zu bewältigen.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles