Ai浪潮下的光通信产业链为何站在爆发前夜
过去两年,AI是最热的风口。但大多数人在讨论AI的时候,目光都盯在英伟达的显卡、OpenAI的估值、国产大模型的融资额上。有一个细分领域,被严重低估了——光模块,或者说整个光通信产业链。
一个反常识的现象:过去两年全球AI服务器出货量年均增长约50%,而AI用光模块的出货量增速超过120%。AI服务器在狂飙,光模块跑得比AI服务器还快。
这不是偶然。光模块,才是AI基础设施里真正的”神经血管”。
为什么AI离不开光模块
要理解这个问题,先搞清楚AI服务器是怎么工作的。
当你在说”训练一个大模型”的时候,实际上是数以千计的GPU同时运算、频繁交换数据。一个GPT-4级别的大模型训练,需要在数万台服务器之间同步传输数据,任何一个环节出现带宽瓶颈,整个训练效率就会断崖式下跌。

而负责服务器之间高速互联的,正是光模块——它实现光信号和电信号的相互转换,让数据通过光纤高速传输。AI时代,数据量呈指数级增长,对带宽的要求从过去的100G、400G,一跃升级到800G甚至1.6T。这个升级速度,是过去10年的总和。
更关键的是,AI对延迟极度敏感——训练时每慢一秒都是烧钱,推理时每多10毫秒用户体验就明显下降。光模块的传输延迟直接决定了GPU集群的工作效率。没有足够好、足够多的光模块,AI计算能力再强也发挥不出来。
光模块的技术升级路径
光模块不是新鲜事物,但AI给它按下了加速键。
传输速率的代际跨越
四年时间,从100G到1.6T,传输速率翻了16倍。而1.6T的规模上量,标志着行业正式进入下一代周期。
三条新技术主线
这三条路线,既有替代又有融合,共同推动光模块行业进入新一轮技术洗牌期。
供需格局:被忽视的产能瓶颈
需求侧:全球疯狂建智算中心
全球四大云厂商(微软、谷歌、亚马逊、Meta)加上国内阿里、腾讯、百度、字节跳动,都在疯狂建设智算中心。每个中心的标配都是数万甚至数十万只高速光模块。
从实际情况看,800G光模块从2023年下半年才开始规模出货,到2024年就已经出现结构性缺货,2025年进一步蔓延至1.6T新品。需求释放的速度,远远超出了行业在2022年时的预期。
还有一个值得注意的动向:超大规模数据中心建设正在从北美向亚太扩散。字节跳动、阿里、腾讯近两年在智算中心上的投入持续加码,海外云厂商的采购量也在快速增长。需求不是在放缓,而是在加速。
供给侧:链条比想象中脆弱
光模块看起来是一个整机行业,但上游供应链却高度集中、扩产周期极长,这正是这个行业的隐性风险。
首先是EML激光器。全球能大规模量产EML(铟磷砷镓)激光器的厂商屈指可数,主要集中在日本(博通日本工厂、三菱电机)和美国(II-VI)手中,国产替代刚刚起步。2024年以来,EML激光器再次出现结构性缺货,部分规格价格涨幅明显。
然后是DSP芯片。光模块的主控芯片需要高速DAC/DMA电路,全球能提供数据中心级DSP芯片的只有博通、Marvell等少数几家,产能高度集中。光模块厂商在芯片供应商面前,议价能力并不强。
最后是光纤连接器。高速光模块需要配套的高密度光纤连接器,涉及到精密制造和精密抛光工艺,毛利率高但扩产慢,同样是产业链的一个隐性瓶颈。
国内厂商:机会与隐忧并存
中际旭创(苏州旭创)已经是全球最大的光模块厂商之一,800G产品全球出货领先,近两年收入增速持续创历史新高;
天孚通信专注高端光器件,是多个头部客户的独家供应商;
光迅科技在芯片自研上有深厚积累;新易盛、剑桥科技也在快速追赶。
国内厂商不仅占据了全球光模块产能的主要份额,在技术上也已站到世界第一梯队。但瓶颈同样明显:核心芯片(DSP、EML激光器)仍依赖进口,高端产品良率有待提升,上游器件的国产替代还需要时间——这是风险,也是机会。
还有一个变量不能忽视:海外政策风险。如果美国进一步收紧对华出口高速光模块相关芯片和器件的管控,上游供应链的不确定性会显著上升。这也是为什么说光模块产业链需要持续跟踪政策动态。
结语
AI大模型的军备竞赛,本质上是算力的竞赛。而算力的高效运转,离不开光通信的血管畅通。
从百G到千G,从深圳到硅谷,每一座AI数据中心建设的背后,光模块产业链都在默默充当那个”不可或缺”的角色。这个被忽视的赛道,正在AI浪潮里走出自己的超级周期。
但这一轮爆发,不是所有玩家都能笑到最后。上游器件的掌控力、高端产品的量产能力、良率把控的水平——这些才是真正决定谁能吃到大鱼的关键。
夜雨聆风