AI算力焦虑下,我们离“光进铜退”到底还有多远?

最近这大半年,只要身在科技圈的朋友应该都有同感:AI时代下的“算力焦虑”越来越严重了。大模型动辄千亿、万亿参数,每次训练都在疯狂燃烧GPU和电费。
为了缓解这种焦虑,圈里最近开始猛炒一个概念:“光进铜退”。在很多科技媒体和投资人的PPT里,几乎形成了一个共识:只要把数据中心里的铜线全换成光纤,电信号统统改成光信号,英伟达的算力瓶颈就能一夜瓦解,能耗直接降到现在的十分之一。
但今天我想关起门来,跟各位从业者、科研人员,以及真正懂行的朋友说几句掏心窝子的大实话:脱离了工程良率和生态去谈“光进铜退”,都是在耍流氓。
我们离那个理想中的全光时代,到底还有多远?


很多人觉得铜线又粗又重,高频损耗大,很快就会被光淘汰。但你看看现实:目前最顶级的AI算力集群里,机架内部的短距离互联,依然是铜的天下。
光互联虽然快,但别忘了,芯片端处理的数据依然是电信号。这就意味着,每一次光通信,两端都必须经过“电-光-电(O-E-O)”的转换。这个转换不仅需要光模块,还需要DSP(数字信号处理)芯片。这些额外的器件带来的功耗和延迟,在短距离(比如一两米以内)传输中,不仅没有优势,反而成了累赘。
更何况,做铜缆的厂商并没有躺平。为了对抗光纤,他们搞出了ACC(有源铜缆)、AEC(有源电缆),硬生生把铜的极限寿命又往后延了几年。
所以,短期内,“光进铜退”绝不是一场摧枯拉朽的歼灭战,而是在厘米级、米级边界上的一场贴身肉搏的阵地战。

既然铜还在坚挺,那我们为什么还要死磕光电融合?
答案很简单:AI算力的发展过程中,有一堵绕不过去的墙——“功耗墙”。
当网络速率向1.6T、3.2T甚至更高演进时,传统的插拔式光模块加上长长的PCB走线,会让信号完整性面临崩溃。为了把微弱的高频电信号推拉过这段距离,SerDes(串行器/解串器)的功耗呈指数级飙升。在一个顶配的AI交换机里,光模块的功耗甚至已经逼近交换芯片本身的功耗。
这时候,CPO(光电共封装技术)和 Optical I/O(光I/O)就成了全村的希望。
把光引擎直接和计算/交换ASIC芯片封装在同一个基板上,让高频电信号“出门”就变成光信号。这不仅大幅缩短了电走线的距离,去掉了功耗巨大的DSP芯片,还能让面板密度翻倍。
这才是“光进铜退”在当下最真实、最硬核的战场。不是去代替GPU做计算,而是拯救已经被数据洪流憋得喘不过气的I/O通道。

褪去狂欢:CPO落地的三道“生死劫”
AI算力焦虑下,死磕光电融合,方向是对的,但这块骨头真的极其难啃。你看现在很多人都在热炒CPO,但真正在产线上流片、封装的人才知道,这里面到底有多少坑:
第一道坎:良率的灾难。把几十个甚至上百个光通道和上千个电引脚集成在一个封装里,光纤阵列的耦合对准精度要求在亚微米级。任何一个光通道坏了,可能一整颗价值连城的交换芯片就要跟着报废。
第二道坎:激光器的“怕热”体质。ASIC芯片是个巨大的火炉,而激光器(尤其是DFB激光器)对温度极其敏感,温度一高就容易波长漂移甚至失效。所以现在大家不得不搞“外置光源(ELSFP)”,把光源像插头一样插在机箱面板上,光引进去,热留外面。但这又增加了系统复杂度和成本。
第三道坎:产业链的重构。以前做芯片的做芯片,做光模块的做光模块,大家井水不犯河水。现在CPO要求Foundry(晶圆厂)、OSAT(封测厂)和光器件厂商在设计初期就深度绑定。谁来主导?标准怎么定?利益怎么分?这背后的博弈,远比技术本身复杂。

「光电seek」的冷思考:少讲故事,多做工程
回到开头的问题:我们离“光进铜退”还有多远?
如果你指的是“全光计算”,让光子去完成大模型的所有参数运算和存储,那我们大概还处于“莱特兄弟刚起飞”的阶段。光计算在特定矩阵加速上有奇效,但缺乏成熟的存储生态(比如光学HBM)和灵活的控制流调度,短期内很难撼动英伟达CUDA生态的护城河。
但如果你指的是“光互联(硅光、CPO、光I/O)”在数据中心的全面渗透,那我们已经站在了爆发的前夜。
这几年,国内在硅光子技术、薄膜铌酸锂、高端光引擎等底层材料和工艺上,确实取得了肉眼可见的突破。我们不再是单纯的组装厂,而是开始在核心IP上有了话语权。
但越是这个时候,我们越需要保持清醒。

科技圈不缺会讲故事的PPT,缺的是能把良率从50%死磕到99.9%的工程师;不缺盲目追热点的快钱,缺的是愿意忍受十年板凳冷的长期资本。
“光进铜退”不是口号,而是一毫米一毫米抠出来的工艺,是一微瓦一微瓦省下来的功耗。
这里是「光电seek」,一个坚持说真话、看懂底层逻辑的光电自媒体。
我们致力于探索光与电的无限可能,助力技术与产业融合,点亮未来科技之光。
关注「光电seek」,一起追光逐电!
夜雨聆风