训练一个AI模型要多少电?算力能耗的冰山一角

当你在对话框里敲下一个问题,背后是数千块GPU在同时运转。每一次推理,每一次训练,都在消耗实实在在的电力——这不是虚拟世界的隐喻,而是正在发生的中国能源新版图。
1700亿千瓦时:数据中心成了”新电老虎”

先看一组令人清醒的数据。
根据中国信通院《绿色算力发展研究报告(2025年)》,截至2024年底,中国在用数据中心机架规模已超过900万标准机架,全年用电量达约1700亿千瓦时,占全社会用电量的比重接近2.4%。
什么概念?1700亿千瓦时,大致相当于三峡电站全年发电量的六分之一,或者北京市全年居民用电的近两倍。而且这个数字还在加速攀升——2025年3月财新报道援引测算,到2035年中国数据中心用电量将增至4000亿千瓦时,是2024年的2.4倍。
驱动这一增长的,不是传统的网页托管或云计算,而是AI大模型训练和推理。一块英伟达H100 GPU的典型功耗约700W,一个万卡集群仅GPU层面就需要7MW,加上散热、存储、网络,实际能耗往往翻倍。一个大型AI训练集群的年耗电量,可以轻松超过一个小型县城。
PUE 1.46:绿色算力不是说出来的

好消息是,数据中心正在变”绿”。
中国信通院数据显示,2024年全国数据中心平均PUE(电能利用效率)已降至1.46,相比前几年持续改善。超过140个算力中心达到4A级以上绿色低碳等级,液冷技术的渗透率明显提升。
但1.46意味着什么?PUE=1.46表示每提供给IT设备1度电,还需额外消耗0.46度电用于散热、照明等。以1700亿千瓦时的总量计算,其中约540亿千瓦时被”浪费”在了非计算用途上——这个数字相当于两个葛洲坝电站的年发电量。
更值得关注的是结构性分化:新建的大型算力中心PUE普遍在1.2以下(液冷+自然冷却),但存量的中小型数据中心大量在1.6甚至1.8以上。就像光伏行业里的新老产能置换,数据中心也面临一轮”能效淘汰赛”。
为什么算力都在往西北跑?

2024年以来,一个明显的趋势是:越来越多的大型算力项目选址宁夏、甘肃、内蒙古等西北地区。原因很直接——电便宜,而且绿电多。
宁夏中卫的数据中心集群是典型代表。当地光伏电价低至0.2元/千瓦时以下,远低于东部沿海的0.6-0.8元,加上干冷气候天然有利于降低PUE,综合运营成本可以降低40%以上。
“东数西算”工程正是这一趋势的顶层设计。其逻辑和”西电东送”一脉相承:把高耗能的算力需求,搬到能源富集的西部,既缓解东部电力紧张,又促进西部新能源消纳。
但问题也很现实:数据传输有延迟,AI训练可以搬到西部,但实时推理(自动驾驶、金融交易)对时延敏感,仍需留在东部。未来真正的挑战在于——如何让算力需求和新能源供给在空间和时间上精确匹配。
算力的尽头是能源
回到标题的问题:训练一个AI模型要多少电?
答案是,取决于模型规模,但量级已经到了令人咂舌的程度。OpenAI训练GPT-4的耗电量估计超过1200万度,而中国本土的大模型竞赛正在催生更多同等规模的训练任务。算力军备竞赛的尽头,站着的是电力供给。
这不是一个可以靠算法优化完全解决的问题。无论芯片能效提升多快,总算力需求的增长速度更快。从这个意义上说,能源才是算力的真正瓶颈——谁掌握了便宜、稳定、绿色的电力,谁就掌握了AI时代的底层竞争力。
这也正是「酉泽新能源2050」开设「算力的尽头是能源」专栏的原因。算力和新能源,表面是两个赛道,底层是同一个问题:如何在有限能源约束下,释放最大的计算价值。
接下来的每周日,我们会从能源视角解读算力行业的每一个重要信号。敬请关注。
数据来源:中国信通院《绿色算力发展研究报告(2025年)》,财新网(2025年3月),央视能源频道(2025年10月)
夜雨聆风