如果把AI训练比作一场马拉松,那么GPU是运动员,光通信就是跑道。
过去十年,我们疯狂提升运动员的体能(GPU算力),却忽略了跑道已经坑坑洼洼——当数据传输速率突破1.6T,传统光模块的功耗和延迟成了致命瓶颈。
2025年,一种叫CPO(Co-Packaged Optics,共封装光学)的技术开始商用。它不是升级跑道,而是直接把跑道铺进了运动员的鞋底。
这种"激进"的架构变革,可能决定了未来十年AI算力的天花板。

一、从"堵车"说起
理解CPO,得先看清楚我们面临的问题。
现在AI大模型越来越猛,训练一个模型动不动需要几万张显卡连在一起干活。这些显卡之间得 constantly 交换数据,就像一个大工厂里,几万个工人必须时刻保持沟通,否则活就干不下去。
问题是,数据传着传着,路就堵了。
传统的方式是用可插拔光模块——你可以理解为,显卡在房间里,光模块在门口,数据得从房间跑到门口,转成光信号再传出去。这条路看着不长,但在电信号世界里,哪怕是十几厘米的距离,也足以让速度降下来、功耗飙上去、信号还会失真。
当数据传输速率从100G、400G提升到800G、1.6T,甚至未来的3.2T时,这条"路"的瓶颈就彻底暴露了。数据中心的电费账单高得吓人,很大一部分就耗在这上面。
二、CPO到底是什么?
CPO,全称 Co-Packaged Optics,中文叫共封装光学。
说白了,就是把原先放在门口的光模块,直接搬进房间里,跟显卡(或者交换机芯片)封装在同一块基板上。以前是两个部门分开办公,现在搬进了一间办公室,距离从十几厘米缩短到几毫米。
这个改动听起来简单,效果却是颠覆性的:
| 功耗 | 降低40%以上 | |
| 延迟 | 皮秒级(快1000倍) | |
| 带宽天花板 | 可支持6.4T及以上 | |
| 体积 | 大幅缩小 |
打个比方,以前光模块像台式机的独立显卡,想换就换,插拔方便;CPO则像笔记本的集成显卡,焊死在主板上,虽然以后不好换,但体积小、功耗低、性能释放更彻底。
三、为什么偏偏现在火?
CPO不是新技术,最早十年前就有人提。但为什么2025年突然爆发?
因为AI等不起了。
英伟达的老板黄仁勋有个著名论断:AI的进化速度是"超摩尔定律"的,每两年算力需求增长10倍。但传统光通信架构的迭代速度完全跟不上。当GPU集群扩大到万卡、十万卡级别,数据传输的瓶颈直接决定了整个集群的实际产出效率。
> 如果显卡是AI时代的发动机,那光通信就是高速公路。 以前乡间小道能凑合,现在车太多了,不建高速路网就得全堵死。
所以你看,英伟达今年GTC大会重磅发布了CPO交换机,博通、AMD也在加速布局。产业链上的信号很明确:2025-2026年是CPO商用的元年,2027-2028年将开始大规模渗透。据机构预测,到2030年CPO在AI数据中心光通信模块中的渗透率可能达到35%左右。

四、产业链上的机会
CPO火起来,带动的不仅是做光模块的公司,而是一整条新产业链:
🧩 硅光芯片:CPO必须依赖硅光技术实现高密度集成,传统分立器件塞不进去 📦 先进封装:要把光引擎和电芯片封在一起,需要台积电CoWoS这类高端封装技术 💡 外部光源:因为发热问题,激光器往往外置,做高功率激光器的公司订单已经排到2028年 🔄 交换机设备:CPO交换机是全新品类,价值量远高于传统设备
简单来说,CPO不是光模块的简单升级,而是对整个数据中心架构的重构。这也是为什么资本市场愿意给这个概念高溢价——这不仅仅是"卖得更多",而是"卖得更贵、利润率更高"的逻辑。
五、泼点冷水:短期别神化
虽然趋势明确,但咱们也得理性看待:
❶ 替代不会一蹴而就> CPO短期内不会完全替代传统光模块。现在的1.6T阶段,可插拔光模块技术成熟、维护方便,CPO虽然技术上可行,但成本和维护难度还是太高。业内普遍看法是,到了3.2T时代,CPO的优势才会真正凸显。
❷ 维护是个大麻烦> 传统光模块坏了拔下来换一个就行,CPO是焊死的,坏了可能得换整个主板,这对数据中心的运维是巨大挑战。
❸ 标准还没统一> 现在英伟达、博通、AMD各有各的路线,客户如果用了某一家的CPO方案,基本就被锁定了,迁移成本极高。
写在最后
CPO的火爆,本质是AI算力军备竞赛的必然产物。当模型越来越大、集群越来越密,功耗和带宽的物理极限逼着我们改变架构。
这是一个长周期的产业趋势,对于咱们普通读者,理解这件事的意义在于:看清AI基建的真实进展——光通信已经从"配角"变成了决定AI训练效率的"关键瓶颈",而CPO正是突破这个瓶颈的钥匙。
这条路还很长,2025年只是商用元年,真正的爆发可能在2027-2028年。潮水方向已经明确,但别指望明天就能改变世界。 技术迭代从来都是如此:先有人铺路,后有车能跑。
夜雨聆风