データセンター技術のリーダーたちが、AIシステムのスケーリングに向けた新たな手法を開発するために、ウルトラアクセラレータリンク(UALink)推進グループを設立しました。
主要産業プレーヤーの連携
Advanced Micro Devices(AMD)、ブロードコム、シスコ、Google、ヒューレット・パッカード・エンタープライズ(HPE)、Intel、Meta、Microsoftといった先進企業が協力し、データセンター内のAIシステム向けに高速かつ低遅延の通信を強化する業界標準を目指しています。
UALinkの紹介
UALinkイニシアティブは、AIアクセラレーター間の効果的な通信を促進し、データセンターのAI接続をより統合的、柔軟、スケーラブルにするためのオープンな業界標準の創出を目指しています。オープンスタンダードに基づくインターコネクトを確立することで、システムのOEM、IT専門家、システムインテグレーターにとって大きなメリットをもたらします。
AMDのデータセンターソリューショングループのゼネラルマネージャー、フォレスト・ノロッドはこの協力の重要性を強調しました。「UALinkによるオープンで高性能なアクセラレータファブリックの構築はAIの未来にとって重要です。我々の専門知識を結集することで、オープンスタンダードの推進とAIエコシステムの強化が実現されるでしょう。」
主要な除外
推進グループは大規模AIや高性能コンピューティングに関する豊富な経験を持っていますが、AIチップのリーダーであるNvidiaは含まれていません。
オープンスタンダードへのコミットメント
ブロードコムのデータセンターソリューショングループのVP、ジャス・トレンブレイは、「UALinkコンソーシアムの設立メンバーとして、大規模AI技術のデータセンターにおける採用を促進することを目指しています。オープンエコシステムのサポートは、さまざまな高速低遅延ソリューションに対応したスケーラブルネットワークを実現するために不可欠です」と述べています。
AIワークロードの効果的なスケーリング
AI計算の需要が高まる中、他の計算リソースを容易に統合できる堅牢な低遅延ネットワークの確立が急務です。UALinkグループは、AIワークロードのための高性能環境を創出するために、仕様を標準化することを目指しています。
このグループは、AIおよび機械学習、高性能コンピューティング(HPC)、クラウドアプリケーション向けのインターフェースを最適化する仕様を開発する予定です。彼らの目標は、AI計算ポッド内のアクセラレーターとスイッチ間でシームレスに通信できる高速低遅延インターコネクトを定義することです。
近日中に発表予定の1.0仕様は、単一のAI計算ポッド内で最大1,024個のアクセラレーターを接続し、GPUなどのアクセラレーターメモリ間の直接的な読み書きを可能にします。
今後の展望
UALink推進グループは、2024年第3四半期に正式に設立される予定のUALinkコンソーシアムを近く立ち上げます。同時期に1.0仕様もコンソーシアムメンバー向けに発表される予定です。
UALinkについて
ウルトラアクセラレータリンク(UALink)は、次世代のAIおよび機械学習(ML)クラスターの性能を向上させるために設計された最先端のアクセラレーターインターコネクト技術です。AMD、ブロードコム、シスコ、Google、HPE、Intel、Meta、Microsoftは、ブレークスルーの性能を支える技術仕様を開発し、データセンターアクセラレーターのためのオープンエコシステムを促進する新たな標準団体の設立に取り組んでいます。
シスコのコモンハードウェアグループのEVP、マーティン・ルンドは、「AIワークロードが増加する中、超高性能インターコネクトは不可欠です。我々の共通の目標は、AIスーパーコンピュータを構築する上での課題に対処するスケーラブルでオープンなソリューションであるUALinkを創出することです」と述べています。