乐于分享
好东西不私藏

聚力全栈液冷技术革新,共筑AI算力散热新生态 | 2026 OAII Summit 全栈液冷新技术主题论坛圆满落幕

聚力全栈液冷技术革新,共筑AI算力散热新生态 | 2026 OAII Summit 全栈液冷新技术主题论坛圆满落幕

全栈液冷新技术主题论坛,由双零行动特别项目组、OAII 社区AI整机柜项目群-散热项目组、机房基础设施-机房液冷组承办,论坛主席由OAII社区整机柜项目群散热项目组组长、双零行动管理团队、京东云技术专家金跃红以及字节跳动技术专家田婷担任。

本次论坛特别邀请了10位液冷顶尖专家,将为现场及线上行业伙伴带来干货满满的精彩演讲,共促产业协同、共推技术创新,同时也特别荣幸邀请到了中国电子工业标准化技术协会王学民副理事长、中国计量科学研究院液冷测试认证研发组长张伟老师来到分论坛现场。

中国计量科学研究院液冷测试认证研发组长 张伟

中国电子工业标准化技术协会副理事长 王学民

王学民在致辞中指出,AI 产业全域渗透推动算力硬件与应用场景快速迭代,高速互联总线、存储等产业链环节持续升级,风冷散热已无法匹配高算力密度需求,全栈液冷成为算力基础设施演进的必然选择。液冷产业的快速扩张,使得标准体系、国际协同与供应链自主可控成为行业发展核心命题。当前液冷领域存在国际厂商参与度不足、标准落地认证体系缺失、关键材料与器件对外依存度较高等问题,制约全栈液冷技术规模化与全球化推进。为此,他提出四项核心建议:扩大国际厂商参与力度,推动社区标准向国标、国际标准升级;联动国标委、CNAS 等机构搭建认证体系,加速标准成果落地;加强与 ITO、3GPP 等组织合作,提升国际标准话语权;聚焦液冷材料、核心器件自主研发,筑牢供应链安全底线。他强调,全栈液冷发展需兼顾标准协同、国际合作与自主创新,以标准化体系支撑产业高质量发展,保障液冷技术安全、高效、规模化落地。

OAII社区AI整机柜项目群散热项目组及双零行动特别项目组的组长、

京东云技术专家 金跃红

中国移动集团数智事业部的项目经理 王祎晨

《通算液冷技术应用策略探讨》

王祎晨围绕通算液冷技术应用策略表示,通算芯片 TDP 持续攀升,风冷散热成本与性能瓶颈凸显,全栈液冷成为通算中心降本增效、保障算力稳定的核心方案,冷板式液冷因适配性强成为通算场景首选。当前通算液冷面临标准不统一、部件互通性差、冷却液兼容性不足、机房配套滞后等问题,直接影响全栈液冷在通算领域的规模化落地。中国移动在苏州、内蒙部署通算液冷数据中心,采用冷板式液冷与风液混合散热模式,分别实现 1.17-1.25、1.1-1.15 的 PUE 表现,验证全栈液冷在通算场景的可行性。

结合产业现状,他建议优先选用鲲鹏海光高功耗平台,采用 1U21 英寸高密节点提升部署效率。后续中国移动将联合行业制定通算液冷推进策略,推动 1U21 英寸节点规范开放和漏液检测标准立项。通过标准化方案与全栈液冷技术深度融合,解决通算场景散热瓶颈,为算力网络建设提供稳定高效的基础设施支撑。

华为数字能源微模块与热管理产品总监 明亮

《AI赋能的高品质液冷系统,让AI世界坚定运行》

华为数据中心能源明亮围绕 AI 赋能高品质液冷系统指出,GW 级算力集群推动散热尺度从微米级延伸至千米级,全栈液冷成为保障算力稳定的核心支撑,而泄漏、工质劣化、运维复杂等问题,是全栈液冷规模化落地的关键挑战。传统风冷思维无法适配液冷全生命周期管理需求,需从规 – 建 – 营 – 维全流程构建安全防护体系。华为构建 12 层防护网,基于 AI 技术实现微泄漏实时监测、工质健康度预测与水温精准控制,把温度波动控制在 2℃内。同时,采用三重氦检、工厂预清洗烘干工艺,从源头管控泄漏风险,将现场交付时间压缩至小时级,全面提升全栈液冷系统可靠性。智能TMU 适配多元算力液冷需求,覆盖 450kW 至 1.38 MW功率场景,实现全流程智能管控。

华为数据中心能源明亮讲述了华为在贵州和芜湖的数据中心项目方案,方案实现长期稳定运行,无泄漏与颗粒污染问题。他表示,AI 赋能全栈液冷可实现全生命周期品质管控,为高密算力中心提供安全、高效、快速部署的散热解决方案,推动全栈液冷技术智能化升级。

英维克产品经理 黄斯浩

《全链条,全场景,全生命周期——智算整机柜交付的全液冷升级》

黄斯浩围绕智算整机柜全液冷升级提出,单机柜功率突破百千瓦级,全栈液冷成为智算中心必选技术,单一产品思维无法适配全栈液冷落地需求,全链条、全场景、全生命周期能力是核心关键。当前全栈液冷面临高密散热与可靠性失衡、产品碎片化、全链条验证缺失等挑战,制约整机柜高效交付。英维克以三全理念构建全栈液冷解决方案,芯片级采用射流冷板解决高热流散热痛点,节点级研发双流道低流阻快接降低系统损耗,机柜级推出适配多盲插机柜架构Manifold,缩短定制周期。搭建材料、部件、系统三重验证体系,参与 “双零行动” 完成冷却液兼容性验证,解决全栈液冷材料腐蚀与适配难题。采用 TTV 精准模拟芯片热源,优化冷板研发流程,提升全栈液冷部件可靠性。面向下一代技术预研两相冷板系统,突破超高热流密度散热瓶颈。他强调,全栈液冷需以全链条能力打通芯片至机房全流程,依托标准化与验证体系,实现智算整机柜安全、高效、规模化部署。

远图未来液冷技术高级专家 吴振华

《新一代AI算力下的超节点液冷技术创新实践与突破》

吴振华围绕超节点液冷技术创新表示,超节点 GPU、交换芯片功耗突破千瓦级,整机柜功率逼近兆瓦级,全栈液冷成为超节点散热唯一解决方案,高密集成、超高热流密度、漏液防护是核心技术难点。远图未来 ETH-X 超节点采用三总线盲插设计,液冷覆盖率超 80%,支持 64 卡互联与 120kW 功耗,适配全栈液冷与高密算力需求。针对高功率芯片散热,采用金刚石复合铜材质与 3D 打印冷板技术,热阻最高降低 32%,突破传统冷板性能极限。光模块领域研发多路径液冷方案,将壳温控制在 65℃内,保障高速模块稳定运行。针对空间受限问题,采用扁平化冷板设计,优化管路布局,释放超节点内部空间。构建板级 – 节点级 – 机柜级全链路防漏体系,实现零泄漏防护,保障全栈液冷系统安全。未来超节点液冷将向全液冷、高性能、集成化方向发展,通过新材料、新工艺提升散热能力,为超大规模全栈液冷部署提供技术支撑,助力下一代算力基础设施建设。

世纪互联 曹维兵

《无水液冷整体架构及应用》

曹维兵围绕无水液冷架构指出,东数西算节点多处于无水或少水区域,传统水冷方案受限,全栈液冷需兼顾节能、节水、可靠三大需求,风液兼容成为无水区域全栈液冷落地的刚需架构。热流密度攀升、水资源短缺、低温防冻等问题,使得无水区域全栈液冷架构设计面临多重挑战。他提出水基与氟基两大技术路线,水基方案以干冷器搭配风液同源架构,适配高温液冷需求;氟基方案采用分体氟泵、氟液 CDU 等设备,实现纯分布式部署,,满足无水区域散热要求且能兼容中温液冷需求。针对低温防冻问题,采用乙二醇防冻与不锈钢代铜技术,降低材料腐蚀风险,提升全栈液冷系统兼容性。他强调,无水液冷架构是全国算力布局的重要支撑,全栈液冷需适配多元地理环境与基础设施条件,未来将推动氟风液兼容方案标准化,联合社区完善无水区域全栈液冷风液兼容技术体系,破解算力节点散热与节水双重难题。

超云数字互联网与AIDC业务总经理 田锋

《AI推理多元化液冷实践分享》

田锋围绕 AI 推理多元化液冷实践表示,AI 推理算力需求激增,8 卡、16 卡高密服务器功耗大幅提升,风冷散热导致硬件老化快、运维成本高,全栈液冷成为推理场景降本增效的核心选择。液冷技术已从高成本投入转变为可回本的高效方案,16 卡液冷服务器首年即可通过节电回收改造成本。超云在乌兰察布部署浸没式液冷方案,采用合成油介质,优化供电与接口设计,单节点年节电超 1.7 万元,GPU 温度稳定在 63℃,大幅降低硬件故障率。浸没式液冷可适配国产 GPU 与 PCIe 互联架构,提升推理算力稳定性与部署效率。他表示,AI 推理场景多元化推动全栈液冷技术差异化发展,冷板式、浸没式等方案可适配不同场景需求,全栈液冷凭借节能、稳定、低成本优势,将成为 AI 推理基础设施的标配技术,助力推理算力规模化、低成本部署。

宁波生久科技散热器事业部总监 王瑞

《两相液冷关键技术突破与商业化应用路径探索》

王瑞围绕两相液冷关键技术指出,单相液冷已逼近换热极限,两相液冷凭借高效散热、低干扰优势,成为全栈液冷下一代核心技术,可更好适配高密算力与低干扰散热需求。当前两相液冷面临气液分离、密封适配、工质选型等技术难题,制约商业化落地。宁波生久科技联合高校突破两相仿真、毛细力稳定技术,实现毛细颗粒均匀化,提升散热系统可靠性。研发无泵两相工作站,采用氟化液介质,具备不导电、防泄漏、免维护特点,单 CPU 散热功率达 550W,节能 25%-35%。推出两相冷板系统,热阻低至 0.0085,支持 2kW 芯片散热,PUE<1.1,适配服务器全栈液冷架构。攻克工质、密封、CDU 全链条自研技术,解决两相液冷系统适配难题。尽管气液管控、量产适配仍存挑战,但两相液冷为全栈液冷提供了高效散热路径,未来将持续推进技术迭代,推动两相液冷商业化落地,丰富全栈液冷技术路线。

曙光数创技术发展总监 黄元峰

《MW级超集群液冷关键技术分享》

黄元峰围绕 MW 级超集群液冷技术表示,芯片 TDP 持续突破 3kW,单机柜功率迈向兆瓦级,传统液冷无法满足超集群散热需求,相变浸没液冷成为全栈液冷在超大规模场景的最优解。曙光 C8000 3.0 液冷机柜单机柜功率达 900kW,采用横插刀片式设计,适配多种算力芯片,支撑 MW 级超集群全栈液冷部署。自研 HVDC 2.0 配电单元,支持多输入多输出,功率响应快速匹配算力负载突变。采用国产相变冷媒,成本降至进口介质 30% 以下,建立包含 2000 余种材料的兼容性库,保障全栈液冷系统安全。应用金刚石铜散热材料,热导率提升 100%,芯片温度降低 5℃;四维热插拔密封技术,泄漏率<10⁻⁷,系统可靠性大幅提升。该方案 PUE 低于 1.04,高密场景下全生命周期成本最优。

黄元峰表示,MW 级相变浸没液冷可支撑超大规模全栈液冷与算力集群,技术将全面开放合作,推动全栈液冷在超集群场景规模化应用,助力高端算力基础设施升级。

伊索温度技术(大连)有限公司的技术经理 余荣东

《数据中心液冷系统故障检测与报警》

余荣东围绕液冷系统故障检测表示,全栈液冷成为算力基础设施核心支撑,泄漏、工质劣化、泵机故障等问题易引发算力中断,全维度故障检测与分级报警是全栈液冷安全运行的核心保障。传统监测方案响应慢、标准不统一,无法满足全栈液冷运维需求。伊索温度构建泄漏、水力热力、冷却液、泵机、整机性能五位一体检测体系,采用电阻式传感器精准监测泄漏,通过温度、压力、流量参数判断系统异常,实时监测 PH 值、电导率评估冷却液状态,实现故障提前预判。设立三级报警机制,针对大规模泄漏、局部异常、单点故障分别触发停机报警、预警与工单处理。故障响应采用自动隔离、冗余切换、应急风冷联动,切断故障区域、切换备用管路,最大程度降低损失。他强调,全栈液冷监测需实现接口与通讯协议标准化,统一数据互通标准,提升故障诊断效率。全维度检测系统可为全栈液冷提供全天候安全保障,推动全栈液冷系统稳定、可靠运行。

该主题论坛体现 Open AI Infra 社区生态协同发力成果,覆盖液冷技术全产业链环节,从基础材料、核心技术到系统架构全方位探索创新,直击高密算力散热核心痛点,定调液冷技术创新与落地方向。

同时,该主题论坛聚焦液冷技术创新、场景落地实践、双零行动安全保障展开全维度探讨实现技术研发端与用户需求端的深度联动,为新一代 AI 算力的散热需求提供从技术研发到工程应用的全链路解决方案。

拓展阅读