AI大模型的能源消耗正在成为一个不可忽视的问题。
训练成本
大模型训练的电力消耗极其惊人。以GPT-4级别的模型为参考:
- 单次训练消耗的电量相当于几百个美国家庭一年的用电量
- 微软、Google、Meta的AI数据中心建设正在推高全球数据中心的能耗占比
更可怕的是推理端。训练是一次性的,但推理是持续的。全球每天数以亿计的AI调用,累积的推理能耗可能已经超过了训练。
各公司的应对
微软签了大量的可再生能源购买协议,甚至在探索小型核反应堆为数据中心供电。
Google承诺AI相关运营100%使用无碳能源,但实际执行中”碳中和”和”真正无碳”有很大差距。
DeepSeek的路线倒是提供了另一种视角——与其用更多GPU暴力训练,不如用更聪明的方法(MoE、FP8、更高效的架构)把计算量本身降下来。$550万训一个顶级模型的做法,从能源角度来看也是最环保的。
矛盾
AI的能耗问题和AI的发展速度之间存在根本矛盾:
- 模型越大、能力越强,能耗越高
- 用户对AI的依赖越深,推理请求越多
- 数据中心的建设速度追不上AI算力的需求增速
一些研究者预测,到2030年AI相关的电力消耗可能占到全球总用电量的3-5%。这个数字看起来不大,但绝对量非常可观。
效率优化(量化、蒸馏、MoE等)是目前最现实的解决方案。靠可再生能源完全覆盖AI能耗在中短期内不太现实。
参考来源:IEA数据中心能耗报告、各公司可持续发展报告