训练一个大模型到底要烧多少电

 · 

AI大模型的能源消耗正在成为一个不可忽视的问题。

训练成本

大模型训练的电力消耗极其惊人。以GPT-4级别的模型为参考:

  • 单次训练消耗的电量相当于几百个美国家庭一年的用电量
  • 微软、Google、Meta的AI数据中心建设正在推高全球数据中心的能耗占比

更可怕的是推理端。训练是一次性的,但推理是持续的。全球每天数以亿计的AI调用,累积的推理能耗可能已经超过了训练。

各公司的应对

微软签了大量的可再生能源购买协议,甚至在探索小型核反应堆为数据中心供电。

Google承诺AI相关运营100%使用无碳能源,但实际执行中”碳中和”和”真正无碳”有很大差距。

DeepSeek的路线倒是提供了另一种视角——与其用更多GPU暴力训练,不如用更聪明的方法(MoE、FP8、更高效的架构)把计算量本身降下来。$550万训一个顶级模型的做法,从能源角度来看也是最环保的。

矛盾

AI的能耗问题和AI的发展速度之间存在根本矛盾:

  • 模型越大、能力越强,能耗越高
  • 用户对AI的依赖越深,推理请求越多
  • 数据中心的建设速度追不上AI算力的需求增速

一些研究者预测,到2030年AI相关的电力消耗可能占到全球总用电量的3-5%。这个数字看起来不大,但绝对量非常可观。

效率优化(量化、蒸馏、MoE等)是目前最现实的解决方案。靠可再生能源完全覆盖AI能耗在中短期内不太现实。

参考来源:IEA数据中心能耗报告、各公司可持续发展报告