国际能源署(IEA)最新的预测数字出来了:2026年底,全球数据中心耗电量将突破1000 TWh——这等于日本一整年的全国用电量。
对比一下:2022年这个数字是460 TWh,四年不到翻了一倍多。
增长主要来自哪里
绝大部分是AI。
具体说是两类工作:AI模型训练(越来越少人做)和AI推理(越来越多人在用)。
Bloom Energy在2026年1月的报告里估算,美国数据中心的能源需求会从2025年的80 GW飙升到2028年的150 GW——三年将近翻番,基本全是AI拉动的。
美国能源信息署更往长看:到2030年,数据中心可能占到美国总用电量的12%,现在是4%。
单从规模看:一个大型AI训练设施需要100MW到1000MW的专用电力,最高端的那个等于给80万个普通家庭供电。
电网正在被压弯
这不只是抽象的能耗数字,已经在影响真实的人了。
Consumer Reports在3月的一份分析里指出,在弗吉尼亚州、德克萨斯州、佐治亚州等数据中心密集地区附近,居民电费已经上涨了8%到15%。
这带来了一个有意思的政治问题:谁来为AI的用电买单?
数据中心运营商通常能拿到大客户优惠电价,而居民用电的价格还在涨。这种电费结构的争议,在这几个州已经开始浮出水面。
不过,昨天(4月9日)也有一项新研究说,暂时没有直接证据表明AI数据中心和居民电费上涨之间存在因果关系——这个争议还在继续。
供电来源的问题
增量这么大,电从哪来?
各大科技公司的方向有差异:
- 亚马逊、谷歌、微软在大量签购买电力协议(PPA),锁定风能和太阳能
- 微软重新拿回了三里岛(Three Mile Island)核电站的部分电力
- 谷歌在探索小型模块化核反应堆(SMR)
- 一些数据中心在尝试就近建气电机组
核电因为基荷稳定(不看天吃饭)正在重新受到AI行业的青睐。不过核电建设周期太长,短期内填不了这个口。
这会成为AI发展的硬约束吗
在算法层面,模型效率确实在进步——Kimi、DeepSeek、Meta Muse Spark都声称用更少的算力达到同等结果。但用电需求是总量,哪怕单次推理成本降了,用户数和调用量增速更快。
真正的约束可能不是算力,而是电力。
有分析师已经开始用能源约束替代算力约束来描述AI扩张的天花板。在某些区域,拿到建设许可、找到稳定的大容量电源,比买到GPU难。
参考来源:Energy demand from AI(IEA);The AI Data Center Power Crisis: How Big Tech's 125 GW Problem Threatens the Grid(tech-insider.org);AI Data Center Energy Consumption Projections 2026(ZestLab)