Nvidia在晶片製造業中產生了重大影響,今年第三季出貨近五十萬顆H100和A100 GPU。這一驚人成就使數據中心的營收達到驚人的145億美元,與去年同期相比增長近四倍。Omdia的首席分析師Vlad Galabov和Manoj Sukumaran在最近的市場快照報告中詳細說明了這一增長。
第三季大部分GPU伺服器的出貨量集中於超大規模雲服務提供商,其中Meta成為Nvidia最大的客戶之一。微軟也為H100 GPU下了大量訂單,可能是為了支持其不斷擴展的AI產品及Copilots功能。其他主要客戶包括Google、Amazon、Oracle和因拜登政府嚴格出口限制而面臨挑戰的騰訊。Omdia的分析師預測,到第四季末,Nvidia的GPU出貨量將超過五十萬顆,這主要受持續強勁的硬體需求驅動。
然而,包括Dell、Lenovo和HPE在內的多家伺服器製造商目前正在遭遇H100伺服器訂單的延遲,這是由於Nvidia提供的GPU配額不足,預計等待時間介於36到52周之間。
市場動態
Galabov和Sukumaran預計,伺服器市場到2027年將達到驚人的1956億美元,較十年前翻了兩倍以上。這一增長是由於組織對伺服器處理器和協處理器的依賴加深,轉向超異質計算—針對特定應用優化的伺服器配置,利用多個協處理器。
在AI訓練和推理任務中,主要的伺服器設置包括配備八顆H100/A100 GPU的Nvidia DGX伺服器,以及專為AI推理而設計的Amazon伺服器,配備16顆定制的協處理器Inferentia 2。在視頻轉碼領域,搭載20個視頻編碼單元(VCU)的Google伺服器和擁有12個可擴展視頻處理器的Meta視頻處理伺服器已成為市場熱門。
作者指出:“我們預期這一趨勢將持續增長,因為某些應用的需求已達到一種規模,使創建優化的定制處理器在經濟上變得可行。”他們強調,儘管目前媒體和AI領域正在受益於超異質計算,但數據庫和網絡服務等其他領域也可能會迅速採用類似的優化策略。
基礎設施增長
根據Omdia的研究,這些先進伺服器在AI應用中的崛起正推動物理數據中心基礎設施的增長。例如,今年上半年的機架配電收入較去年增長了17%,略高於Omdia預測的14%增長。此外,2023年數據中心的熱管理收入預計將增長17%,這主要是由於更高的機架密度需要創新的液冷解決方案。
隨著生成型AI的專業服務擴展,促進企業在2024年及以後的更大程度採用,作者指出當前AI實施速度的主要限制可能是電力的可用性。他們強調,預測並不受融資限制的妨礙,並指出一個有趣的趨勢:企業越來越多地將受追捧的GPU作為融資抵押品。
這一形勢突顯了創新硬體和優化伺服器配置在數據中心持續演化中的重要角色,特別是在各行各業對AI能力的需求持續上升的情況下。