2026年,全球AI吃掉的电比整个日本用一年还要多

2026年,全球AI吃掉的店比整个日本用一年还要多。
你每问ChatGPT一个问题,背后就要烧掉大半瓶矿泉水。
更可怕的是,它一年能喝干3000个西湖。它为什么会这么耗电?要把这个问题讲通透,我们得从头看AI。
AI模型的诞生,需要经历训练阶段,这就像是让一个孩子在几个月内读完人类历史上所有的书。
为了完成这个过程,成千上万块GPU必须开足马力。
就比如GPT-3训练能耗约为1287兆瓦时,相当于几百个美国家庭一年的用电量。后来的GPT-4,由于参数规模激增至1.8万亿,其训练能耗飙升至前者的40倍以上。
虽然训练一次很累,但模型部署后,服务用户的推理过程才是真正的能耗大头。
研究表明,AI推理能占到AI总能耗的80%到90%。
GPT-4仅仅一次短查询就会消耗约0.42瓦时的电量。
当全球每天有数以亿计的请求涌向这些模型时,电表转动的速度简直超乎想象。
不过同样是处理一个任务,有的AI是大胃王,有的却是节能达人。一方面是模型基因不同,传统的“大力出奇迹”,让模型越来越大,能耗也随之失控。但像Llama 3.1 8B这样的高效选手,处理长指令仅需0.443瓦时。
另一方面,同一个AI住在不同的数据中心,能效天差地别。比如在专业云平台上的能耗,比在自有服务器上直接减少了70%。
这说明AI的碳足迹不仅取决于算法,更取决于数据中心的电源使用效率和冷却技术。未来的算力竞赛不仅比谁更聪明,更要比谁更绿色。

随着AI大爆发,算力中心正面临一个火烧眉毛的麻烦——热。
装满顶级AI芯片的机架,功率密度已飙升至100到200千瓦甚至更高。单个AI机架的能耗竟然相当于普通家庭的39倍,成千上万个这样的机架挤在一起,整栋建筑就成了一个持续高烧的巨型烤箱。
由于空气导热能力的物理上限,传统风冷已彻底跟不上AI进化的脚步。于是,散热这个工程经历了三个阶段的进化。
第一阶段,风冷极限:封闭的冷热空气站。工程师先将风冷推向极致,封闭冷热通道,通过物理隔断,让冷空气直达服务器正面,热空气从背面排走,防止混流。这套方案将数据中心的电能利用效率(PUE)从1.8压到了1.4左右。但当单机架功率超过40千瓦,满载运行24小时,大约要消耗960度电,这已经超过一个普通美国家庭一个月的用电量。到了这个级别,风再大也吹不走核心的热量。
第二阶段,冷板液冷:给芯片贴“退热贴”。风冷到头,液冷登场。冷板液冷是在芯片上方加装金属冷板,内部流动的冷却水直接带走热量。液体的导热系数远高于空气,能轻松应对单颗芯片数百瓦的功耗。虽然PUE能降至1.3左右,但它更像局部退热,内存、主板等部件仍需风扇辅助,且存在漏液风险。
第三阶段,浸墨液冷:让服务器泡“冷水澡”。最彻底的方案是浸墨式液冷,把整台服务器直接浸泡在不导电的冷却液中,液体与所有部件360度接触,导热效率是空气的千倍以上。采用单向浸墨液冷,冷却液靠循环流动散热,阿里巴巴在张北数据中心部署后,总功耗下降36%,PUE低至1.07;采用两相浸墨液冷,利用液体受热沸腾气化的相变带走巨量热量,PUE可压到1.02到1.05,逼近理论极限。这种“泡澡”方案不仅节能,还让硬件故障率下降了53%,机房排出的废热可达60至80摄氏度,能直接为城市供暖,让AI的“体温”温热居民的暖气片。
真正的能效突破,不止靠降温,更要靠全站协同。谷歌证明了,从硬件、模型到系统的每一层优化,能产生惊人的叠加效应。优化分三招:第一招,定制硬件,自研AI加速器,从底层实现低功耗设计;第二招,算法瘦身,利用量化技术降低计算精度,在保证回答质量的前提下,进一步降低能源消耗;第三招,专材专用,用小型专用模型处理翻译或摘要,能效比通用大模型高出15到50倍,拒绝资源浪费。通过这套“硬件散热+算法瘦身+智能调度”的组合拳,Gemini实现了里程碑式的飞跃,能耗降至原来的1/33。
散热与算法的革命,本质上是算力增长的侧影。未来的AI不仅要比谁更聪明,更要比谁更绿色、更清凉。
面对这场能源挑战,各国给出了不同答案:中国用“东数西算”把算力中心建在西部绿电旁边,同步推进算电协同,用电高峰时让算力中心主动为电网让路,同时用AI帮电网做精准调度,给电网装上了“智慧大脑”;欧盟立法强制新建数据中心PUE≤1.3;美国依靠市场驱动,但部分地区电网已面临严峻压力,微软甚至签约重启了三里岛核电站,专攻数据中心供电。
讲完了AI有多“费电”,下期我们来聊聊AI有多“笨”——它会一本正经地编造根本不存在的文章。这些不是偶发的bug,而是深植于AI工作原理的系统性缺陷。
夜雨聆风