ChatGPT 日耗电超 50 万度,卡死AI发展的竟然是能源?

最近《纽约客》报道,ChatGPT 每日耗电量或超过 50 万千瓦时,相当于美国家庭平均用电量的 1.7 万倍。埃隆·马斯克也曾预言,未来两年内电能短缺将成为制约 AI 发展的主要因素。然而,事实真的是这样吗?

目前关于 AI 耗电量的观点主要源自估算结果,而非真实的测量数据。美国信息技术与创新基金会(ITIF)发布的报告认为,个别不准确的研究大大高估了 AI 的能耗,这样的言论可能对 AI 发展造成不利影响,阻碍 AI 在促进节能减排、应对环境挑战方面发挥潜力。业界人士呼吁,应当促进行业信息透明,同时减少 AI 技术的滥用。

AI 能耗评估难题:

影响因素众多

ITIF 是一家非营利智库,总部位于美国华盛顿。在这份题为《重新审视对人工智能能耗的担忧》的报告中,ITIF 指出,不同 AI 模型的能耗和碳排放存在巨大差异,受到诸多因素的影响,包括芯片设计、冷却系统、数据中心设计、软件技术、工作负担、电能来源等。

所以,在估算 AI 的能耗方面,不同研究的结论出现了较大分歧。2019 年马萨诸塞大学阿默斯特分校团队发布的一项预印本研究估算,当时领先的谷歌公司大语言模型 BERT 在 79 小时的训练过程中排放了约 1438 磅二氧化碳(约合 652 千克),量级相当于一名乘客乘坐飞机往返于纽约和旧金山一次。研究也对 AI 神经架构搜索(NAS)等技术得出了类似结论。这篇论文在谷歌学术被引用接近 3000 次,并得到了大量媒体报道。