ChatGPT 日耗电超 50 万度,卡死AI发展的竟然是能源?

1

基础设施建设成本将制约 AI 的快速增长

“ChatGPT 每日耗电量或超过 50 万千瓦时”的结论,出自技术博客 Digiconomist 作者亚历克斯·德·弗里斯(Alex de Vries)的估算。德·弗里斯还曾预测,在最糟糕的情况下,谷歌的 AI 用电量将与整个爱尔兰相当,达到每年 29.3 TWh(太瓦时)。但他同时也指出,要想达到这样的规模,谷歌需要在芯片上投入 1000 亿美元,此外还要数据中心的运营和电费投入数十亿美元。如果AI的运营成本居高不下,逐利的商业公司自然会放慢脚步,减少投入。

2

AI 性能增长存在边际效应

近年来 AI 连续在许多领域取得了突破性进展,这也意味着它可能很快迎来一个瓶颈期。研发、运营更大的模型带来的回报将越来越低,在提升准确性上精益求精也将变得更困难。所以,优化 AI 模型可能是接下来的研发方向。

3

软件和硬件的性能提升将减少 AI 能耗

AI 模型的优化,以及硬件技术的进步,都有望减少 AI 的能耗。一项发表于《科学》期刊的研究指出,在 2010~2018 年间,全球数据中心的运算量增长了 550%,存储空间增长了 2400%,但耗电量仅增长 6%。硬件、虚拟技术和数据中心设计方面的创新提升了能效,也使得云计算的规模化成为可能。

图库版权图片,转载使用可能引发版权纠纷