液冷概念:AI算力热浪下的"散热革命"
液冷概念:AI算力热浪下的”散热革命”
当千瓦芯片遇上PUE红线,一个千亿级市场的爆发逻辑
当你关注英伟达GPU的算力参数、OpenAI的模型迭代速度时,很少有人注意到藏在算力基础设施背后的一个关键变量——散热。
这个曾被视为”边缘配套”的环节,正在AI算力狂飙与双碳政策收紧的双重夹击下,完成一次彻底的价值重估。液冷技术从”可选项”变成了”必选项”,一个千亿级市场正在全面爆发。
一、风冷触顶:为什么散热问题突然变得致命?
2026年,数据中心行业正在经历一场静默的革命。
过去三年,AI服务器单机柜功率经历了惊人的跃升:2023年还是20-30kW,2024年跳升至60kW,2025年部分智算中心的机柜功率已经突破140kW。更激进的方案正在路上——英伟达GB300集群功率达240kW,而国内厂商的兆瓦级方案已支持最高900kW。
这种功率密度的指数级增长,直接撞上了传统风冷技术的物理天花板。
风冷散热的原理是用空气作为导热介质带走热量。但空气的导热能力只有液体的1/25,储热能力更是相差上千倍。当单机柜功率超过50kW,风冷技术就几乎完全失效——强行加大风扇只会带来三个致命问题:
第一,机房变成”噪音炸弹”。 某头部云厂商的数据中心曾实测,100kW机柜的风扇噪音超过85分贝,设备故障率随之飙升。
第二,电费成本失控。 传统数据中心总用电中,制冷系统消耗40%以上。一旦功率密度翻倍,制冷耗电成比例增加,电费成为压垮运营方的最后一根稻草。
第三,芯片过热降频。 电子设备温度每升高2℃,可靠性下降10%。当散热效率跟不上芯片发热速度,”性能释放”就成了一句空话。
更关键的是,这场危机不只是技术问题,更是政策红线问题。
二、PUE铁律:政策如何倒逼液冷成为”准生证”
在能耗双控的背景下,国家对数据中心能效设置了硬性门槛——PUE值(电能利用效率,数值越接近1代表越节能)。
1.2,这是北京市对2027年新建数据中心设定的PUE上限。
传统风冷数据中心的PUE普遍在1.3-1.5,根本无法达标。而液冷系统可以将PUE压至1.03-1.15,完美踩线。
政策随后从”鼓励节能”转向”指定技术路径”。2026年3月,工信部等四部门联合印发《节能装备高质量发展实施方案》,明确鼓励液冷服务器、液冷交换机的研发与部署。更具强制力的细则紧随其后:
-
• “东数西算”国家枢纽节点,新建项目液冷占比不得低于70% -
• 智算中心,液冷渗透率不得低于60% -
• 北京、上海、深圳等地,已直接禁止新建风冷数据中心
这意味着,在中国最重要的算力基建版图上,新建项目想拿到”准生证”,液冷是唯一合规选项。
仅有禁令还不够,政策组合拳里还有真金白银的激励:
|
|
|
|
|
|
|
|
|
|
|
|
三大运营商已明确,2026年液冷服务器集采占比将超过70%。用订单直接锁定技术走向,这比任何政策文件都更有说服力。
三、技术路线:冷板式与浸没式的”双雄并立”
液冷技术并非铁板一块。根据热量传导方式的不同,主要分为三大路线:
冷板式液冷:当前绝对主流
原理:冷板直接贴合芯片表面,通过管道内的冷却液循环带走热量,再通过换热器将热量散到室外。
优势:
-
• 技术成熟度最高,改造成本低 -
• 对现有服务器架构改动小,兼容性好 -
• PUE可压至1.08-1.15 -
• 单机柜支持15-200kW功率范围
市场份额:目前占比约70-80%,是新建数据中心的主流选择。
浸没式液冷:未来方向
原理:将整个服务器完全浸泡在绝缘冷却液中,热量直接通过液体循环带走。
优势:
-
• 散热效率极致,PUE可低至1.02-1.05 -
• 支持单机柜200kW+功率密度 -
• 无风扇噪音,运维更简单 -
• 冷却液可循环使用,长期成本更低
痛点:
-
• 初期改造成本高 -
• 需要专用服务器架构 -
• 冷却液成本占比高(目前氟化液价格约50-70万元/吨)
市场份额:目前约20%,但在AI训练等超高密度场景渗透率快速提升。
喷淋式液冷:小众补充
冷却液直接喷淋热源,目前占比不足5%,主要用于特定小众场景。
行业判断:冷板式与浸没式并非替代关系,而是分层互补。冷板式主导当前市场,浸没式代表中长期方向。最终格局将是”新建全面液冷、存量风冷补充”。
四、渗透率跃升:从3%到82%的五年狂飙
数据最能说明问题。
根据中商产业研究院数据,中国液冷服务器渗透率的增长曲线堪称陡峭:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
这意味着,从2021年到2030年,液冷技术完成了从”边缘配角”到”绝对主力”的身份转换。
全球市场的数字同样惊人。摩根大通预测,全球AI服务器液冷系统市场规模将从2025年的89亿美元飙升至2026年的170亿美元以上。一年时间,市场规模近乎翻倍。
五、产业链图谱:谁在掘金这场”散热革命”?
液冷产业链可分为上游材料/部件、中游系统集成、下游终端应用三个环节。
上游:核心材料与零部件
这是产业链中毛利率最高的环节,普遍达40-60%。
冷却液(氟化液):液冷的”血液”,技术壁垒极高。3M曾长期垄断市场,目前国内巨化股份已突破99.999%纯度技术瓶颈,通过英伟达认证,2026年产能将扩至12万吨。
液冷板:直接贴合芯片的核心散热部件。微通道设计和纳米涂层技术是竞争关键。中石科技、飞荣达是主要供应商,深度绑定英伟达GB200/300供应链。
CDU(冷却液分配单元):整个液冷系统的”心脏”,负责冷却液的精确分配和温度控制。英维克CDU产品已进入英伟达、谷歌供应链。
快接头/管路:看似小部件,实则技术门槛极高。中航光电、川环科技的产品需要通过严格的密封性测试。
中游:系统解决方案
英维克:国内液冷龙头,冷板式市占率42%,提供从冷板、CDU到快接头的全链条解决方案,已进入英伟达MGX生态。
高澜股份:唯一同时布局冷板式和浸没式的A股公司,浸没式液冷市占率约35%,已切入英伟达、微软供应链。
申菱环境:CDU厂商中排名第一,产品批量供应字节跳动、腾讯、阿里、百度等几乎所有国内头部客户。
曙光数创:浸没式液冷绝对龙头,全球首创”刀片式浸没相变液冷技术”,PUE可低至1.03,连续四年市占率第一(约58%)。
下游:服务器与数据中心
浪潮信息:液冷服务器全球市占率35%,亚洲最大液冷生产基地。
中科曙光:液冷服务器重要厂商,旗下曙光数创专注浸没式技术。
六、市场空间:千亿赛道的增长轨迹
综合各方预测,液冷市场的增长轨迹清晰可见:
全球市场
-
• 2024年:约53.8亿美元 -
• 2025年:78-120亿美元 -
• 2026年:140-170亿美元(同比增长59-80%) -
• 2030年:312-474亿美元(CAGR 20-30%)
中国市场
-
• 2024年:智算中心液冷市场规模184亿元 -
• 2025年:约294亿元(同比增长67%) -
• 2026年:预计突破1000亿元 -
• 2029年:预计突破1300亿元(CAGR 66%)
2026年,将是液冷产业从”试点期”进入”规模量产”的历史性分水岭。
七、催化剂:为什么是现在?
液冷市场的爆发,并非单一因素驱动,而是三重逻辑的共振:
1. AI算力的刚性需求
Token消耗量的爆发,直接转化为芯片功耗的飙升。根据IDC预测,2025至2030年,全球年度Token消耗的年复合增长率将高达3418%。这种量级的算力需求,传统散热方案根本接不住。
2. 政策的高压倒逼
PUE红线从”软约束”变成”硬指标”,新建数据中心不采用液冷就拿不到审批。政策用数字划出了一条清晰的红线。
3. 经济性的临界点
液冷系统的初期投入虽然高于风冷,但长期运营成本优势明显——节电30-50%,投资回收期缩短至3-4年。当”算总账”更划算,商业逻辑就完全跑通了。
八、投资参考:赛道中的结构性机会
液冷产业链各环节的竞争格局和价值分布并不均匀:
高壁垒、高毛利环节(上游材料/核心部件):
-
• 冷却液:技术认证壁垒极高,国产替代空间大 -
• 液冷板:直接绑定AI芯片厂商,订单能见度高 -
• CDU/快接头:精密制造门槛高,客户认证周期长
规模效应明显环节(中游系统集成):
-
• 龙头企业已绑定头部客户,规模优势正在积累 -
• 全栈解决方案能力成为竞争壁垒
值得关注的风险点:
-
• 技术路线迭代风险(冷板vs浸没的竞争格局变化) -
• 冷却液价格波动影响浸没式方案成本 -
• 客户集中度较高,部分公司依赖单一客户
九、展望:散热产业的新纪元
当散热效率决定算力上限成为行业共识,这场由AI算力点燃的”散热革命”,才刚刚进入高潮。
从2021年不足3%的渗透率,到2030年预计82%的渗透率,液冷技术用不到十年时间完成了对传统散热方案的全面替代。这不是一场渐进式的改良,而是一次颠覆性的范式转换。
液冷产业的意义,远不止于”给服务器降温”。
它是AI大模型训练得以持续迭代的基础设施保障,是双碳目标下数据中心实现绿色转型的技术路径,是国产厂商在全球散热产业链中从”追赶者”变成”规则制定者”的历史机遇。
当芯片功耗突破千瓦门槛、当PUE红线越来越严苛、当算力军备竞赛持续升级——液冷,这个曾被视为”边缘配套”的角色,正在成为决定AI时代算力上限的关键变量。
一个千亿级市场的黄金时代,才刚刚开始。
声明:本文数据来源于公开市场资料,仅供行业分析参考,不构成任何投资建议。股市有风险,投资需谨慎。
夜雨聆风