ChatGPT 資源需求激增:為何變得無法掌控

生成式人工智能的快速擴張顯著增加了對水和電力的需求。《華盛頓郵報》與加州大學河濱分校的研究人員共同發表的一項最新研究揭示了OpenAI的ChatGPT在執行基本任務時所需的巨大資源。

在水耗方面,ChatGPT撰寫一封100字電子郵件所需的水量因地區和距離OpenAI數據中心的遠近而異。在水資源有限且電力成本較低的地區,數據中心通常更依賴電力驅動的空調系統。例如,在德克薩斯州,生成一封100字的電子郵件需要約235毫升水;而在華盛頓,則需高達1,408毫升,幾乎是1.5升。

隨著生成式人工智能技術推動數據中心增長,這些設施變得更大且密度更高。基於空氣的冷卻系統難以維持最佳溫度,促使許多人工智能數據中心轉向液體冷卻。這種方法通過在服務器堆棧周圍循環大量水來吸收熱能,然後將熱量轉送至冷卻塔釋放。

ChatGPT的電力需求同樣不容小覷。《華盛頓郵報》指出,使用ChatGPT撰寫一封100字的電子郵件所需的電力足以為十多個LED燈泡運行一小時。如果美國只有10%的人口每週使用ChatGPT一次,則全年累計的能耗將與華盛頓特區20天內所有家庭的用電量相當,影響約67萬居民。

這一挑戰不太可能迅速解決,並可能隨著時間的推移而加劇。例如,Meta訓練其最新的Llama 3.1模型所需的水量達2200萬升。根據法庭文件,谷歌位於俄勒岡州達勒斯的數據中心幾乎佔據了該鎮水供應的四分之一。同時,xAI在孟菲斯的超集群已經需求150MW的電力,足以支持約30,000戶家庭,並向當地公用事業公司孟菲斯輕電氣和水公司施加資源壓力。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles