ChatGPT资源需求激增:为何变得难以管理

生成性人工智能的快速扩张显著增加了对水和电力的需求。一项来自《华盛顿邮报》和加州大学河滨分校研究人员的最新研究揭示,OpenAI的ChatGPT执行即使是最基本任务所需的资源量。

在水资源消耗方面,ChatGPT撰写一封100字电子邮件所需的水量因地点和距离OpenAI数据中心的远近而异。在水资源有限且电力成本较低的地区,数据中心通常更依赖电力驱动的空调系统。例如,在德克萨斯州,生成一封100字的邮件约需235毫升水。而在华盛顿,撰写同样的邮件则需要高达1,408毫升,几乎达到1.5升。

生成性人工智能的技术进步促使数据中心不断扩大并变得更加密集。空气冷却系统难以维持最佳温度,使得许多AI数据中心转向液体冷却。这种方法通过在服务器堆栈周围循环大量水,吸收热量,再将热量送至冷却塔释放。

ChatGPT的电力需求同样令人瞩目。根据《华盛顿邮报》的报道,利用ChatGPT撰写一封100字的邮件需要消耗的电量,足以驱动十多个LED灯泡一个小时。如果美国仅10%的人口每周使用一次ChatGPT,全年累积的能耗将相当于华盛顿特区所有家庭20天的总用电量,影响约67万居民。

这一挑战在短期内难以解决,甚至有可能随着时间推移而加剧。例如,Meta在训练其最新的Llama 3.1模型时,花费了2200万升水。根据法庭文件,谷歌位于俄勒冈州达利斯的数据中心的用水量几乎占该镇水供应的四分之一。同时,xAI的孟菲斯超级集群已耗电150兆瓦,足以支持约3万个家庭,迫使当地公用事业公司孟菲斯电力、煤气和水务公司提供资源。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles