👆如果你希望可以时常见面,欢迎标星🌟收藏哦~
要是打开理财、刷个财经热搜,
是不是最近总被CPO、PCB、液冷刷屏?
行情轮番大涨、概念反复出圈,
这三个词到底啥意思?为啥能成为AI算力的核心赛道?今天就来一次性讲透这三大热门概念,看完秒懂它们的技术逻辑、市场价值和投资逻辑。
先搞懂:它们在AI算力里是什么角色?
先搞懂:它们在AI算力里是什么角色?
为了让大家更容易理解,我们先来打个比方。
如果把一个庞大的AI算力中心(比如说训练大模型的超级计算机集群)想象成一个正在全力奔跑的运动员,那么:
GPU(图形处理器):就是运动员的心脏,负责提供源源不断的澎湃动力(算力)。
CPO(共封装光学):就是运动员的血管系统,负责高速、高效地输送“血液”(数据),确保心脏的指令能瞬间传遍全身。
PCB(印刷电路板):就是运动员的骨骼和肌肉,为所有器官和组织提供支撑和连接,是身体的基础架构。
液冷:就是运动员的汗腺和散热系统,在剧烈运动时快速带走体内产生的巨大热量,防止“中暑”宕机。

现在,AI这个“运动员”正在参加一场马拉松,对速度、耐力和稳定性的要求都达到了极限。传统的“身体构造”已经跟不上了,必须升级换代。而这“三剑客”,正是这场升级革命的核心主角。
三者分工明确、环环相扣,共同撑起了AI大模型、算力中心的底层基建,少一个都不行。
CPO:算力的“高速直通车”
CPO:算力的“高速直通车”
1. 一句话定义
CPO的全称是Co-Packaged Optics,中文名叫“共封装光学”。听起来很复杂,其实原理很简单。就是把光模块和交换芯片/ GPU“打包封装”在一起,用光信号替代电信号传输数据,大幅缩短传输距离、降低功耗、提升速度。
2. 为啥需要 CPO?(传统方案的痛点)
在过去,GPU(心脏)和负责数据传输的光模块(血站)是分开制造的,然后通过长长的铜线(血管)再连接起来,就像是“异地办公”。信号在长长的铜线里跑,不仅速度慢、延迟高,而且能量损耗巨大。在AI大模型训练时,数据量爆炸,传统方案根本扛不住,而且可插拔的光模块太占地方,机器里塞不下。
3. CPO的“黑科技”
CPO的出现,就是为了解决这些问题。它直接把光引擎(负责光电转换的核心部件)和GPU/交换芯片(算力的核心)封装在同一个基板上,不仅传输距离从几厘米降至几微米,几乎 “零延迟”,带宽密度也提升了4-10倍,支持 800G、1.6T 甚至更高速率,不再需要笨重的可插拔模块,设备可以做得更紧凑。可以这么说,在1.6T、3.2T乃至更高速率的光互联时代,CPO几乎是唯一可行的方案。
4. 市场与应用
2026年被称为CPO商用的元年。
2025年下半年之前,CPO还属于一个不怎么大众的概念板块。2026年被称为CPO商用的元年。
英伟达在2026年3月的GTC大会上明确将CPO定位为AI工厂网络架构级方案,其Spectrum-X CPO以太网交换机已于2026年3月实现量产;
海外云厂商(微软、甲骨文)启动测试;
台积电旗下硅光整合平台COUPE于2026年实现量产,标志着CPO技术从概念验证迈向规模商用;
中际旭创、新易盛等订单排产至2026年底甚至2028年,1.6T CPO产品批量供货,3.2T产品进入验证送样阶段......
三家公司站在了风口的中心,股民们给它们取了一个很具传播性的统称“易中天”,分别取自新易盛(300502.SZ)的“易”、中际旭创(300308.SZ)的“中”,以及天孚通信(300394.SZ)的“天”。
PCB:AI硬件的“万能骨架”
PCB:AI硬件的“万能骨架”
1. 一句话定义
PCB的全称是Printed Circuit Board,中文名叫“印刷电路板”。你可能没听过它,但你肯定对它不陌生,你拆开的任何电子产品,里面都有一块绿油油的板子,上面布满了各种电子元件和细密的线路,它就是PCB。
2. 普通PCB vs AI服务器PCB
普通的PCB可能只有几层,工艺简单、成本低,就像盖了个“小平房”。而AI服务器对于PCB的要求是相当高了,需要20层、30层甚至更多层板,像从平房直接升级成了摩天大楼,要求高速、高频、高耐热、高稳定性,能承载超大电流和极速信号转换,工艺难度呈指数级上升。材料方面,必须使用超低损耗的高速材料(如M7/M8等级),才能保证高速信号在传输中不失真。工艺方面,线宽线距的精度要达到±0.05mm,阻抗公差控制在±2%以内,制造难度不亚于半导体工艺,技术壁垒极高。
3. AI时代PCB的价值重塑
正是因为要求如此之高,一台AI服务器的PCB价值量是普通服务器的5-10倍!它不再是那个可以同质化竞争、拼价格的低端制造业,而是技术壁垒极高的高端制造。
目前,全球能做这种高端PCB的厂商屈指可数,产能也非常紧张,交货周期已经从6周延长到了6个月。这背后是AI算力爆发带来的巨大刚需。
液冷:算力的“生命防线”
液冷:算力的“生命防线”
最后我们来聊聊液冷。顾名思义,就是用液体来散热。
1.液冷的高效之道
传统的服务器散热靠风扇吹风,就像给发烫的电脑吹风扇。但在AI时代,GPU的功耗已经突破了1000W大关,热量密度极高,靠风扇吹已经完全不顶用了。会导致芯片降频、宕机甚至烧毁。
液冷的优势非常明显:首先是散热高效,能让芯片温度比风冷低15-30°C,确保GPU在全速运行时不会因过热而降频。其次是节能降噪,大幅减少了风扇的数量和转速,机房噪音可以降低到50分贝以下。此外还能延长寿命,芯片工作温度每降低10°C,其使用寿命就能延长一倍。
2.主流液冷技术路线
3. 市场与价值
液冷正从“选配”变成“标配”,成为算力基建的“黄金赛道”。随着AI智算中心的建设进入高峰期,“东数西算”、数据中心节能等趋势的助推下,预计2026年,新建智算中心的液冷渗透率将突破50%,这是一个千亿级别的增量市场。
CPO、PCB、液冷:三者的关系
CPO、PCB、液冷:三者的关系
最后一句话总结一下:CPO是一种“技术”,PCB是一个“硬件产品”,液冷是一种“方案”。
三者的关系,PCB是基础,CPO提速度,液冷保稳定。
CPO是高壁垒、高增长、利润最高的赛道,CPO厂商赚的是“降维打击”的钱。
PCB是刚需、是基础、增长稳定,但利润薄,制造商赚的是辛苦钱,AI服务器高端PCB供不应求,业绩确定性强。
液冷是必选“基建”,有高价值属性,解决散热的痛点,是新机房的必备,市场规模快速扩张,长期逻辑最硬。
对于投资者而言,理解这些技术背后的产业逻辑,远比追逐短期的股价波动更重要。
差不多就说这些吧。
推荐阅读



夜雨聆风