Cerebras dévoile Condor Galaxy 3 : un superordinateur d'IA capable d'atteindre 8 ExaFLOPs de performance.

Cerebras et G42 ont officiellement lancé Condor Galaxy 3, un superordinateur révolutionnaire en intelligence artificielle (IA) promettant une performance impressionnante de huit exaFLOPs. Cette capacité remarquable est propulsée par 58 millions de cœurs optimisés pour l'IA, selon Andrew Feldman, PDG de Cerebras, basé à Sunnyvale, Californie. G42, un acteur majeur des solutions cloud et d'IA générative à Abou Dhabi, Émirats Arabes Unis, exploitera ce superordinateur pour offrir une technologie IA de pointe. Feldman a souligné qu'il s'agit de l'un des plus grands superordinateurs d'IA au monde.

Condor Galaxy 3 intègre 64 systèmes Cerebras CS-3, utilisant le Wafer-Scale Engine 3 (WSE-3), considéré comme la puce IA la plus rapide de l'industrie. Cette configuration robuste permet à l'ordinateur d'atteindre des performances étonnantes tout en formant efficacement d'énormes modèles d'IA. "Notre approche consiste à construire d'immenses superordinateurs IA haute vitesse, évoluant de clusters plus petits vers des systèmes capables de former des modèles vastes," a expliqué Feldman.

Cerebras adopte une approche unique du design de puces, intégrant plusieurs cœurs sur une plaquette de semi-conducteurs, améliorant ainsi la rapidité de communication et l'efficacité globale. Cette méthodologie innovante leur permet de disposer de 900 000 cœurs sur une seule plaquette. Situé à Dallas, Texas, Condor Galaxy 3 est le troisième ajout au réseau Condor Galaxy. La collaboration entre Cerebras et G42 a déjà abouti à deux modèles antérieurs, chacun délivrant huit exaFLOPs, totalisant ainsi 16 exaFLOPs. D'ici la fin de 2024, le réseau Condor Galaxy dépassera les 55 exaFLOPs de puissance de calcul IA, avec des plans pour neuf superordinateurs IA au total.

Kiril Evtimov, directeur technique de G42, a exprimé son enthousiasme : "Condor Galaxy 3 renforce notre vision partagée de révolutionner le paysage mondial du calcul IA. Notre réseau existant a déjà formé des modèles open-source de premier plan, et nous anticipons encore plus d'innovations grâce à cette performance accrue."

Les 64 systèmes Cerebras CS-3 de Condor Galaxy 3 sont alimentés par le WSE-3, une puce IA de pointe de 5 nanomètres qui offre deux fois la performance pour une consommation d'énergie et un coût identiques à ceux de son prédécesseur. Doté de quatre billions de transistors, le WSE-3 atteint une performance maximale de 125 pétaflops en utilisant 900 000 cœurs optimisés pour l'IA par puce. "Nous sommes fiers de lancer nos systèmes CS-3, essentiels à notre collaboration avec G42," a déclaré Feldman. "Avec chaque itération du Condor Galaxy, nous élargirons notre capacité de traitement de 36 exaFLOPs à plus de 55 exaFLOPs, marquant une avancée significative dans le calcul IA."

Condor Galaxy a déjà formé divers modèles d'IA générative, y compris Jais-30B et Med42. Le premier est reconnu comme le principal modèle arabe bilingue au monde, désormais disponible sur Azure Cloud, tandis que Med42, développé en partenariat avec M42 et Core42, excelle en tant que modèle de langage clinique. Prévu pour le lancement au deuxième trimestre de 2024, Condor Galaxy 3 est prêt à améliorer les capacités des systèmes IA.

De plus, Cerebras a révélé que la puce WSE-3 établit un nouveau record en tant que puce IA la plus rapide à ce jour. Le WSE-3 maintient une consommation d'énergie identique tout en offrant deux fois la performance du modèle précédent WSE-2, consolidant ainsi sa position de leader en technologie IA. Feldman a noté que le CS-3 nécessite 97 % de code en moins que les GPU, le rendant exceptionnellement convivial. Le système peut former efficacement des modèles allant de 1 milliard à 24 trillions de paramètres, simplifiant ainsi considérablement les flux de travail d'entraînement.

Cerebras a déjà constitué un solide carnet de commandes pour le CS-3 provenant de divers secteurs, y compris celui des entreprises et du gouvernement. Rick Stevens, directeur associé du laboratoire au Laboratoire National d'Argonne, a commenté le potentiel transformateur des solutions Cerebras dans la recherche scientifique et médicale en IA.

En outre, Cerebras a établi une collaboration stratégique avec Qualcomm pour tirer parti des forces des deux entreprises. Ce partenariat vise à fournir dix fois la performance en inférence IA grâce à un entraînement de modèles optimisé sur le CS-3. Feldman a souligné : "Cette collaboration avec Qualcomm nous permet de former des modèles optimisés pour leur moteur d'inférence, réduisant ainsi considérablement les coûts d'inférence et le délai de retour sur investissement."

Avec plus de 400 ingénieurs à son bord, Cerebras s'engage à offrir une puissance de calcul inégalée pour relever les défis les plus pressants de l'IA aujourd'hui.

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles