不斷提升的運算能力與能源壓力:揭示NVIDIA與Intel的節能解決方案

建立可擴展的人工智慧基礎設施:專注於能源效率

在最近的 Hot Chips 2024 會議上,OpenAI 硬體基礎設施負責人蔡瑞德(Trevor Cai)發表了一篇題為「建立可擴展的人工智慧基礎設施」的主題演講。蔡瑞德強調,擴展計算資源可以顯著提升人工智慧的性能與實用性,這一見解對未來的人工智慧發展至關重要。

Hot Chips 是全球重要的會議,展示處理器及相關技術的最新進展。今年,圍繞人工智慧的討論尤為熱烈,尤其是在數據中心激增的能源需求下。摩根士丹利的研究顯示,生成式人工智慧的電力消耗預計在未來幾年將以 75% 的速度增長,並預計在 2026 年能源使用量將與西班牙的總消耗量相匹配。

提升能源效率的解決方案

在為期兩天的 Hot Chips 2024 會議中,重點放在部署能源效率高且可擴展的人工智慧伺服器上。蔡瑞德在演講中指出,隨著計算能力的增長,需要大規模投資於人工智慧基礎設施,以獲得實質性收益。自 2018 年以來,尖端模型的計算需求增加了約四倍。訓練最初的 GPT-1 模型僅需幾週,但如今卻需要龐大的 GPU 集群。

IBM 展示了即將推出的 Telum II 處理器與 Spyre 加速器,宣揚新的人工智慧整合方法,以降低能耗和物理空間需求。NVIDIA 介紹了其 Blackwell AI 集群架構,能夠訓練高達 100 兆參數的模型,同時利用 Quasar 量化系統以最小化能耗。其他公司如 Intel、Broadcom 和 SK Hynix 也展示了能源高效的技術解決方案,凸顯了對日益增長的能源需求的共同關注。

能源需求與環境挑戰

人工智慧的快速發展驅動著對更強大處理器的需求,使數據中心的能源消耗達到前所未有的水平。根據 Bloomberg 的報導,主要科技公司在去年投資高達 1050 億美元於數據中心基礎設施。隨著人工智慧任務的計算需求增加,國際能源機構預測到 2026 年,全球數據中心的能源消耗將與日本的電力使用匹配。

Hugging Face 負責人 Sasha Luccioni 指出,儘管人工智慧模型訓練通常在單一回合內進行,但頻繁的查詢會增加能耗。例如,向 ChatGPT 發出一次查詢所消耗的電量相當於一個燈泡亮 20 分鐘。這種需求對電力資源構成挑戰,並引發環境擔憂。

面對能源危機,科技公司正探索清潔能源來源。亞馬遜正在賓夕法尼亞州投資建設一個核能數據中心,以減少對傳統電網的依賴。與此同時,谷歌正在開發專為人工智慧優化的專用晶片,顯著提升能源效率。

NVIDIA 的研究顯示,其直接液冷系統可降低數據中心能耗達 28%。然而,威斯康星大學的辛克萊教授(Professor Sinclair)警告,儘管提高了單個任務的能效,但整體使用量的上升仍可能導致總能耗上升。這一現象被稱為傑文斯悖論(Jevons Paradox),在歷史上及現代人工智慧發展中均適用。

結論

人工智慧技術的快速演變與日益增加的能源需求使科技公司必須尋找創新且可持續的解決方案。Hot Chips 2024 會議上的討論反映了行業對能源效率技術的共同關注,為未來人工智慧基礎設施的發展指明了方向。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles