乐于分享
好东西不私藏

AI基建的 4.55万亿元花在哪、瓶颈卡在哪、谁在悄悄赚钱

AI基建的 4.55万亿元花在哪、瓶颈卡在哪、谁在悄悄赚钱

开篇

如果你只看新闻标题,你会以为AI竞赛的关键词是”模型参数”、“GPT-X发布”、“开源vs闭源”。

但如果你接触过任何一个真实在建的智算中心项目,你会发现这些都不是真正决定胜负的变量。

真正决定2026—2028年AI产业格局的,是三件极不fancy但极其昂贵的事:

  1. 谁能在合适的地方,拿到几百兆瓦甚至吉瓦级别的电力指标

  2. 谁能把变压器、冷却系统、机柜按时交付到工地

  3. 谁能在18个月内让一座大型数据中心从荒地变成可用算力

这三件事的背后,是一笔规模惊人但被严重低估的账。

【图1:数据中心建设工地夜景】

一、6500亿美元(4.55万亿RMB意味着什么

2026年,全球超大规模云厂商(以微软、谷歌、亚马逊、Meta、Oracle为主)的AI相关资本开支,预计将达到约6500亿美元

这个数字孤立看没感觉,放在历史坐标系里就很惊人:

  • 美国年度国防预算:约5000亿美元

  • 全球油气行业年度资本支出:约6000亿美元

  • 全球制药行业年度研发支出:约1000亿美元

  • 阿波罗登月计划总投入(通胀调整):约900亿美元

也就是说,仅仅几家科技公司的AI基建,一年的投入,已经超过美国国防、接近全球油气、相当于每年再造一个新行业

换一个维度理解:6500亿美元对应大约11吉瓦(GW)的新增电力容量。这个量级是什么概念?中国”东数西算”工程八大国家算力枢纽节点,截至2024年底建成的算力中心总规模,折算电力大致也在这个量级附近——也就是说,全球hyperscaler一年的扩张,等同于中国所有枢纽节点过去几年的总和

这不是泡沫,这是基础设施超级周期。

二、这笔钱具体花在哪

业内通行的估算口径大致如下,以单兆瓦(MW)为基本单位(数据来自一线开发商的项目级测算,有±20%浮动):

前期资本开支(每兆瓦):约5500—6000万美元

  • 数据中心土建+电力设施(变压器、配电、备电、冷却基础设施):约5000万美元/MW

  • IT设备(GPU/服务器/网络):约3000万美元/MW——这是单项最大,但已经不是唯一瓶颈

  • 其他配套(机柜、机电、施工、软件):约1500—2000万美元/MW

运营开支(每兆瓦):约100—120万美元/年

主要是电力和基础运维。注意这里电力占运营成本的60—70%——这就是为什么”电”比”运维团队”更重要。

收入(每兆瓦):约1500万美元/年(纯IaaS模式)

如果做托管AI云、模型推理服务,单MW年收入可以拉到2000—2500万美元。

回本周期:大约4年——前提是能持续以90%以上的利用率运行。

这个账本告诉我们什么?

第一,只要MW能上线、能被用满,现金流极强。这就是为什么资本愿意源源不断涌入这个赛道。

第二,回本逻辑严重依赖”上线速度”。同样一笔投资,18个月上线和36个月上线,IRR(内部收益率)差距巨大。所有玩家都在拼命压缩建设周期。

第三,真正的不确定性不在GPU价格(那是英伟达的事),而在电力获取速度和建设周期。这是后面要重点谈的。

【图2:GPU服务器机房内部】

三、瓶颈大转移:从”GPU荒”到”电地荒”

2023年到2024年上半年,行业最焦虑的是GPU供应。一卡难求、定金提前两年付、配额按关系分配——那是属于英伟达的黄金时代,毛利率拉到不可思议的水平。

但从2024年下半年开始,瓶颈悄悄迁移了。

现在,真正卡脖子的不是GPU,而是”powered site”——已经通电、可立即上架GPU的场地

为什么会发生这个迁移?

1. GPU供应正在缓解

英伟达H100/H200/B200产能稳步爬坡,AMD MI300系列、国产芯片也在涌入。GPU不再是”有钱也买不到”的稀缺品。

2. 电力系统不是想扩就能扩

一个10万卡级别的GPU集群,峰值用电相当于一个中型城市。要给这种集群供电:

  • 大功率主变压器:全球供应链交付周期从过去的8—12个月延长到18—36个月

  • 高压输电线缆:钢芯铝绞线、高压电缆同样紧张

  • 电网接入:美国部分地区已经出现”申请接入排队2—4年”的情况

  • 发电容量:核心区域(如弗吉尼亚北部)电网容量已经接近饱和

3. 许可与监管成为隐形杀手

地方政府的环境评估、社区听证、土地用途变更,在很多地区比电网扩容还慢。德州、爱荷华、内华达这些地方相对宽松,所以美国大量新数据中心向这些州集中。

4. 冷却供应链也在紧张

液冷板、CDU(冷量分配单元)、二次侧管路、浸没式冷却液——这一整套基础设施,几年前还是小众市场,现在订单已经排到2027年。冷却厂商的产能扩张速度,远远赶不上GPU功率密度的爬升速度

行业里有句话很形象:“以前我们优化的是每秒处理多少token,现在我们发现,真正决定一切的是县政府的许可办公室和变压器的交货单。”

这是个非常残酷的转变。它意味着:有钱、有GPU,但找不到地方上电——这不是假设,是2025年很多AI公司正在面对的现实

【图3:数据中心电力设施】

四、利润池在重新分配

瓶颈迁移直接改变了产业链利润分布。

GPU/芯片层(英伟达、AMD、博通、台积电)

仍然是利润率最高的环节,但定价权在悄悄削弱。当GPU不再是稀缺品,而场地、电力、冷却成为新瓶颈,议价权就开始下移。英伟达的极致毛利率,在未来2—3年大概率会被压缩(虽然依然会很高)。

数据中心开发商/运营商

这是被市场严重低估的环节。每MW年收入1500—2500万美元、回本4年、续约率高、现金流强——这是传统REITs做梦都想要的资产质量。新兴的”Neocloud”(GPU专业云厂商)正在快速崛起。

电力公司与能源资产持有者

可能是最大的隐形赢家。当电力变成稀缺品,长期购电协议(PPA)的谈判权全面倒向卖方。已经掌握存量电力资产的公司——尤其是核电、燃气、可再生能源——正在重新定价

冷却/热管理供应链

这是个很多人没看清的环节。当GPU功率密度从30kW/机柜爬升到100kW甚至更高,风冷已经物理上不可行,液冷成为唯一选项。这意味着:

  • 冷板(cold plate)、CDU、Manifold厂商:订单爆炸

  • 浸没冷却液(单相、两相)厂商:从化工副线变成战略物资

  • 二次侧水路、压力控制、漏液检测:标准化和工程化空间巨大

  • 余热回收与利用:从”环保加分项”变成”经济性必选项”

这一块的产业重构,在国内还远没有充分定价。中国在液冷技术、设备制造、工程实施上有完整产业链,这是少数中国能形成全球竞争力的细分赛道。

电气设备与变压器厂商

ABB、西门子、伊顿、施耐德,加上中国的特变电工、平高电气,都在订单饱和状态。中压/高压开关柜、母线槽、UPS——交付周期全面拉长。这是传统行业里被AI带飞的、最不像AI概念的板块。

【图4:液冷系统细节(冷板、CDU、管路等技术瓶颈】

五、新模式:Neocloud为什么会跑出来

讲完账本和瓶颈,顺理成章的问题是:这场基建竞赛的赢家会是谁?

答案不会是单一的,但有一类玩家值得特别关注:“能源优先”的新型云厂商(Neocloud)

它们的打法,与传统hyperscaler有本质差异。

传统hyperscaler模式:
找地 → 申请电网接入 → 等变压器 → 建数据中心 → 上GPU → 提供云服务。每一步都被外部依赖卡住,周期长、成本高。

Neocloud模式:
先找电 → 就地建电厂(燃气轮机、可再生) → 在电厂旁边建数据中心 → 同步部署GPU和冷却 → 直接卖给少数大客户(签长期合同)。

这种模式的优势:

  • 绕开电网瓶颈:既然电网扩容慢,那就自建电源

  • 跳过部分许可流程:发电+用电同址,某些环节简化

  • 建设周期短:模块化、并行施工、12—18个月可上线

  • 总成本可能更低:不依赖电价上行的电网,锁定能源成本

  • 现金流回收快:大客户长期合同,锁定收入

最有代表性的是德州一些大型一体化园区项目——油气资源 + 自建电厂 + GW级数据中心同址布局,直接为头部AI公司供能,完全跳过传统电网瓶颈。

这种模式在中国的对应物会是什么?

我的判断是:“源网荷储一体化” + 西部清洁能源基地 + 大型央企运营商主导的混合形态。

中国的特殊性在于:

  • 电网由国家电网/南方电网统一调度,不存在美国那种电网孤岛问题

  • 但西部清洁能源(光伏、风电)消纳压力大,跨区输送成本高

  • 算力需求中心在东部,能源富集区在西部

  • “东数西算”政策正在试图解决这个错配

这会形成一种有中国特色的Neocloud变体——不一定是民营公司主导,可能是央企+地方政府+电力集团的联合体,在西部建设”能源—算力一体化基地”。这个赛道的玩家不会是单纯的科技公司,而会是”半央企半工程公司”的混合形态。

谁能跑出来,取决于三件事:电力指标的获取能力、跨区调度的政策协调能力、工程建设的实际交付能力。这三项里,科技公司只擅长第三项的一部分。

六、几个被忽视、但很关键的细节

把视野从”hyperscaler vs Neocloud”拉回到产业链具体环节,有几个细节在国内还没被充分讨论。

1. PUE不再是核心指标,WUE和能源结构成为关键

过去十年大家关注PUE(数据中心总能耗/IT设备能耗)。但当电力或清洁能源本身成为瓶颈,单纯压PUE的边际收益越来越小——从1.2降到1.1,只能省几个百分点的电,但建液冷的成本可能拉高10—15%的capex。

未来的核心指标会迁移到:

  • WUE(水效):干旱地区、内陆地区不可忽视

  • CUE(碳效):欧洲、加州等强监管地区已经开始约束

  • 能源结构:绿电比例、可再生能源匹配率

2. 余热回收从”加分项”变成”经济选项”

一个10万卡集群每年的废热,相当于一个中型供热厂的产出。在过去,这些热基本被冷却塔散掉了——纯粹的浪费。

但当电费和碳约束同时收紧,余热回收的经济性正在反转。北欧已经有数据中心通过余热回收为城市供暖收钱(不是付费,是创收)。在国内,北方城市的供暖、化工园区的低温热源、工业园区的烘干工艺,都是潜在出口。

3. 算力金融化正在悄悄发生

当数据中心资产具备稳定现金流,它就具备了金融化的条件。已经出现的形态:

  • 算力REITs:Equinix、Digital Realty已经是上市REITs

  • 算力ABS/CMBS:以IaaS合同为底层资产的资产证券化

  • GPU融资租赁:对中小AI公司是关键工具

这一块在中国的探索比海外慢,但一旦放开,会大幅降低算力建设的资金成本。

七、对不同角色的判断

如果你是AI模型公司或应用公司:

不要只盯着模型,要在2026年提前锁定2027—2028年的算力供给。等价格和供给紧张时再找,基本就晚了

如果你是投资人:

  • 一级市场:关注电力解决方案、液冷供应链、模块化数据中心、余热回收等”非性感”环节

  • 二级市场:除了英伟达,关注电气设备、冷却系统、数据中心REITs、特定区域的电力公司

如果你是地方政府或产业园区:

电力指标 + 土地 + 审批速度是吸引算力投资的三件套,缺一不可。仅靠土地优惠没有意义,核心是电。

如果你是传统行业从业者(电力、暖通、化工、土建):

不要因为”我不懂AI”就忽视这个机会。这场基建超级周期需要的恰恰是你们的专业能力。AI公司不缺懂AI的人,缺懂电、懂冷、懂建、懂供应链的人。

结语

AI产业最容易被误解的地方,是把它当成一场”软件竞赛”或”算法竞赛”。

但当6500亿美元真金白银砸下去,你会发现这是一场极其传统的基础设施竞赛——比拼的是电、是钢、是水、是冷却液、是变压器、是工程建设速度。

模型层的胜负,可能在2027年之前就尘埃落定;但基础设施层的格局,会决定未来10—20年AI产业的真实形态。

谁掌握电、谁掌握建设速度、谁掌握冷却供应链——谁就掌握下一个十年的算力定价权。

关于本专栏

这是一个聚焦智能算力基础设施的观察账号。

运营者长期从事算力、能源、热管理交叉领域的研究,有学术背景也有产业一线接触。内容侧重产业判断、技术经济性分析、政策与全球趋势

不日更、不追热点、不带货、不点评具体公司股票。每周或每两周更新一篇深度分析。

如果你是从业者、研究者、投资人,觉得内容有价值,欢迎关注。

也欢迎在留言区告诉我你想看的话题——液冷、余热、东数西算、算力金融化、海外巨头动向都在选题清单上