安培計算擴展CPU系列,專注於AI效率
安培計算宣布其AmpereOne晶片系列將於明年擴展至256核心。該公司還與高通攜手開發雲端AI加速器。
安培首席產品官Jeff Wittich表示,這款新中央處理單元(CPU)將比當前市場上其他任何CPU提高40%的性能。
與高通的合作
位於加州聖克拉拉的安培將與高通技術合作,利用高通的高效、低功耗的Cloud AI 100推斷解決方案,形成針對AI推斷的解決方案,搭配安培的CPU。
安培首席執行官Renee James強調了AI進步帶來的迫在眉睫的能源挑戰。她表示:「六年前我們啟動了這段旅程,因為我們認識到其重要性。低功耗不再等同於低性能,安培重新定義了計算的效率邊界,提供在高效架構內的卓越性能。」
應對數據中心能源效率
數據中心的能源消耗正日益受到關注。James指出,快速轉向AI已加劇了行業的能源挑戰。「當前的發展軌跡是不可持續的。未來的數據中心基礎設施必須改造現有的空氣冷卻設置,並建造與電網電力相兼容的環保新設施。」
Wittich贊同這一觀點,指出對新CPU的需求源於數據中心中AI所導致的能耗增加。「我們必須開發出能提升通用計算和AI效率的解決方案。」
安培的AI計算願景
安培正開創一種稱為「AI計算」的綜合方法,涵蓋雲原生能力和AI功能。Wittich解釋道:「我們的CPU能支持從流行的雲原生應用到AI的各種工作負載,將AI整合到數據處理和媒體交付等傳統應用中。」
未來計畫
安培已為其數據中心CPU制定了雄心勃勃的路線圖。即將推出的關鍵發展包括採用TSMC N3技術製造的12通道256核心CPU。先前宣布的192核心CPU已開始生產並在市場上銷售。
安培與高通合作,加強其聯合解決方案,結合安培CPU和高通Cloud AI 100 Ultra,針對生成AI中的大型語言模型(LLM)推斷。
Wittich形容此合作為創造針對AI應用的高效CPU的承諾,「這一解決方案將簡化客戶的採用,並提供創新的AI推斷能力。」
性能提升
隨著12通道平台擴展至新型256核心AmpereOne CPU,使用者可期待顯著的性能提升,且無需複雜的設計。而現有的192核心型號仍按計劃於今年稍晚推出,顯示出從八通道到十二通道記憶體的演變。
值得注意的是,安培的CPU技術已被Meta的Llama 3在Oracle Cloud中使用。令人驚訝的是,Llama 3在不使用GPU的情況下,搭載128核心Ampere Altra CPU,性能媲美Nvidia A10 GPU與x86 CPU的組合,而功耗僅為三分之一。
UCIe工作組與競爭優勢
最近,安培成立了一個UCIe工作組,作為AI平台聯盟的一部分,以增強其CPU的靈活性,允許未來設計中集成客戶IP。
安培直接與AMD競爭,突顯其性能優勢。AmpereOne CPU在每瓦性能方面超過AMD的Genoa達50%和Bergamo達15%。對於尋求升級基礎設施的數據中心,AmpereOne可以提供每架架34%的性能提升。
新的AmpereOne OEM和ODM平台將在未來幾個月內發貨。
此外,安培已與NETINT合作,開發使用其Quadra T1U視頻處理晶片的解決方案,實現360個直播頻道的同時轉碼,並為40個流進行實時字幕,利用OpenAI的Whisper模型。
安培旨在成為AI時代計算的核心。近期增強功能包括記憶體標記、QOS執行和網狀擁塞管理,最終推出FlexSKU功能,讓客戶能在擴展和升級用例中利用相同的SKU。
通過與Oracle的合作,安培成功地將運營成本降低了28%,同時僅使用競爭對手Nvidia解決方案所需電力的三分之一。該方法使用戶能以15%更少的伺服器、少33%的機架空間和降低35%的功耗運作,與安培在AI計算中的效率和性能承諾相一致。