一個由數據中心技術領導者組成的聯盟成立了超加速連結(UALink)推廣小組,旨在開創在數據中心內擴展 AI 系統的新方法。
行業領袖攜手合作
先進微處理器公司(AMD)、博通(Broadcom)、思科(Cisco)、谷歌(Google)、惠普企業(HPE)、英特爾(Intel)、Meta 和微軟(Microsoft)等領先企業聯手制定行業標準,以提升數據中心內 AI 系統的高速和低延遲通訊。
引介 UALink
UALink 項目的目標是創建一個開放的行業標準,使 AI 加速器能更有效地進行通信,從而促進 AI 連接數據中心的整合、靈活性和可擴展性。通過建立基於開放標準的互連,UALink 將使系統原廠商(OEM)、IT 專業人士和系統整合商受益。
AMD 數據中心解決方案部門總經理 Forrest Norrod 強調了該合作的意義:「UALink 的努力在於構建一個開放的高性能加速器架構,對 AI 的未來至關重要。我們的專業結合將推動開放標準的發展,並加強 AI 生態系統。」
顯著的缺席
儘管推廣小組擁有在大規模 AI 和高性能計算方面的豐富經驗,但卻不包括 AI 芯片領導者 Nvidia。
對開放標準的承諾
博通數據中心解決方案部門副總裁 Jas Tremblay 表示:「作為 UALink 聯盟的創始成員,我們的目標是促進數據中心內大規模 AI 技術的採用。支持開放生態系統對於實現配備各種高速、低延遲解決方案的可擴展網絡至關重要。」
有效擴展 AI 工作負載
隨著 AI 計算需求的上升,建立一個穩健的、低延遲的網絡,並能輕鬆整合額外計算資源顯得至關重要。UALink 團隊旨在標準化規範,創造一個高性能的 AI 工作負載環境,以最大化性能結果。
該小組計劃開發一個規範,優化 AI、機器學習、高性能計算(HPC)和雲應用在未來 AI 數據中心中的介面。他們的目標是為 AI 計算單元中的加速器和交換器之間建立高速度、低延遲的互連,以實現無縫通信。
即將發布的 1.0 規範將支持在單個 AI 計算單元中連接多達 1,024 個加速器,方便類似 GPU 的加速器內存之間的直接加載和存儲。
展望未來
UALink 推廣小組將很快成立 UALink 聯盟,預計在 2024 年第三季度正式啟動,屆時將推出 1.0 規範供聯盟成員使用。
關於 UALink
超加速連結(UALink)是一項前沿的加速器互連技術,旨在提升下一代 AI 和機器學習(ML)集群的性能。AMD、博通、思科、谷歌、HPE、英特爾、Meta 和微軟承諾成立一個開放標準機構,以制定技術規範,支持突破性性能並促進數據中心加速器的開放生態系統。
思科通用硬件部執行副總裁 Martin Lund 指出:「隨著 AI 工作負載的增長,超高性能的互連將變得至關重要。我們的共同目標是創建 UALink,一個可擴展的開放解決方案,以應對建立 AI 超級計算機的挑戰。」