Une coalition de leaders en technologie de centres de données a créé le groupe de promoteurs de l'Ultra Accelerator Link (UALink) pour innover dans les méthodes de mise à l'échelle des systèmes d'IA au sein des centres de données.
Des Acteurs Clés de l'Industrie S'unissent
Des entreprises de renom telles qu'Advanced Micro Devices (AMD), Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta et Microsoft unissent leurs forces pour élaborer une norme sectorielle qui améliore la communication à haute vitesse et à faible latence pour les systèmes d'IA dans les centres de données.
Présentation de UALink
L'initiative UALink vise à créer une norme ouverte permettant aux accélérateurs d'IA de mieux communiquer, favorisant ainsi une meilleure intégration, flexibilité et évolutivité des centres de données connectés à l'IA. En établissant une interconnexion basée sur des standards ouverts, UALink profitera aux fabricants d'équipements d'origine (OEM), aux professionnels de l'IT et aux intégrateurs de systèmes.
Forrest Norrod, directeur général du groupe de solutions pour centres de données chez AMD, a souligné l'importance de cette collaboration : "Les efforts de UALink pour construire une infrastructure d'accélérateurs haute performance sont cruciaux pour l'avenir de l'IA. Notre expertise combinée fera progresser les normes ouvertes et renforcera l'écosystème de l'IA."
Exclusions Notables
Bien que le groupe de promoteurs dispose d'une vaste expérience dans l'IA à grande échelle et l'informatique haute performance, il n'inclut pas le leader des puces AI, Nvidia.
Engagement envers les Normes Ouvertes
Jas Tremblay, vice-président du groupe de solutions pour centres de données chez Broadcom, a déclaré : "En tant que membre fondateur du consortium UALink, nous visons à améliorer l'adoption des technologies d'IA à grande échelle dans les centres de données. Soutenir un écosystème ouvert est essentiel pour permettre des réseaux évolutifs dotés de diverses solutions à haute vitesse et faible latence."
Mise à l'Échelle Efficace des Charges de Travail en IA
Alors que la demande de calcul en IA continue d'augmenter, il est impératif d'établir un réseau robuste et à faible latence capable d'intégrer facilement des ressources de calcul supplémentaires. Le groupe UALink vise à standardiser les spécifications pour créer un environnement haute performance pour les charges de travail d'IA, maximisant les résultats de performance.
Le groupe prévoit de développer une spécification qui optimisera l'interface pour l'IA et l'apprentissage automatique, l'informatique haute performance (HPC) et les applications Cloud au sein des futurs centres de données IA. Leur objectif est de définir une interconnexion à haute vitesse et faible latence pour une communication fluide entre les accélérateurs et les commutateurs dans les pods de calcul IA.
La future spécification 1.0 vise à permettre des connexions pour jusqu'à 1 024 accélérateurs dans un seul pod de calcul IA, facilitant ainsi les chargements et les stockages directs entre la mémoire des accélérateurs, tels que les GPU.
Avenir Près
Le groupe promoteur UALink établira bientôt le consortium UALink, qui devrait devenir officiel au troisième trimestre 2024, avec la spécification 1.0 à suivre dans le même délai pour les membres du consortium.
À Propos de UALink
L'Ultra Accelerator Link (UALink) est une technologie d'interconnexion d'accélérateurs de pointe conçue pour améliorer les performances des clusters d'IA et d'apprentissage automatique de nouvelle génération. AMD, Broadcom, Cisco, Google, HPE, Intel, Meta et Microsoft s'engagent à former un organe de normes ouvertes pour développer des spécifications techniques soutenant des performances révolutionnaires tout en favorisant un écosystème ouvert pour les accélérateurs de centres de données.
Martin Lund, EVP du groupe matériel commun chez Cisco, a commenté : "À mesure que les charges de travail en IA augmentent, les interconnexions ultra-haute performance seront critiques. Notre objectif commun est de créer UALink, une solution évolutive et ouverte qui répond aux défis de la construction de supercalculateurs en IA."