AI芯片光通信,为什么突然成了AI基础设施的核心变量
事情是这样的。
这两天我在整理AI基础设施里一个特别容易被低估的方向,AI芯片光通信。
很多朋友第一次听到这个词,可能会下意识以为,这是在说「用光来算AI」。
但真不是。
更准确的说法是,当大模型训练从几张GPU,变成几千张、几万张GPU一起干活以后,问题已经不只是芯片本身够不够快了。
问题变成了,数据能不能跟上。
芯片像工厂,HBM像仓库,NVLink和PCIe像厂内传送带,InfiniBand和Ethernet像高速公路。那光模块、光纤、硅光、CPO这些东西,就像高速公路上的货运通道。
工厂再强,货堵在路上,整条生产线也会停下来。
这篇报告,我尽量按技术小白也能看懂的方式,把这件事从纵向演进和横向路线两条线捋一遍。你不需要先懂通信,也不需要先懂芯片,只要记住一个问题就够了。
AI越来越会算以后,谁来负责把数据搬过去?
这个问题,就是AI芯片光通信突然重要起来的原因。
研究时间:2026-04-28 | 所属领域:AI基础设施 / 数据中心网络 / 光通信 | 研究对象类型:技术与产业链概念 | 读者定位:技术小白友好版
一、一句话定义
AI芯片光通信不是“用光来计算AI”,而是:当成千上万颗GPU、AI ASIC或交换芯片一起训练和运行大模型时,用光纤、光模块、硅光、共封装光学等技术,把芯片之间、服务器之间、机柜之间的数据搬得更快、更省电、更远。
如果把AI芯片比作一座座工厂,HBM显存是工厂旁边的仓库,NVLink/PCIe是厂内传送带,以太网/InfiniBand是高速公路,光模块和光纤就是高速公路上的货运通道。大模型时代,问题不只是“工厂里机器够不够快”,还变成了“货能不能及时送到”。
这就是AI芯片和光通信突然绑定在一起的原因。
二、先给小白搭一个技术地图
2.1 AI训练为什么需要“通信”
训练大模型通常不是一块芯片单独完成。原因很简单:模型太大、数据太多、训练时间太长。
于是工程师会把任务拆给很多GPU或AI加速器:
-
有的芯片处理不同数据,这叫数据并行; -
有的芯片负责模型的不同部分,这叫模型并行/张量并行/流水线并行; -
每一步训练后,芯片之间还要同步梯度、参数或中间激活值。
这时就出现一个朴素但残酷的问题:
算得再快,如果数据搬不过来,芯片就会等。
GPU等数据,就像工人站在流水线旁边没材料。买了昂贵芯片,却被网络拖住,整个AI集群的性价比就会下降。
2.2 “电通信”和“光通信”的区别
芯片内部天然是电信号。晶体管开关、电压高低、电流变化,这些都是电世界。
但电信号有几个麻烦:
-
跑远了会衰减:距离越长,信号越糊; -
跑快了更难保持清晰:速度越高,噪声、串扰、损耗越明显; -
需要复杂补偿电路:比如均衡器、重定时器、DSP,这些都会耗电、发热、增加成本; -
线缆会变粗、变重、变难管理:高密度AI机柜里,铜缆不是无限可堆的。
光通信的思路是:把电信号变成光信号,用光纤传输。光纤在较长距离、高带宽场景里损耗更低、抗干扰更好、密度更高。
但光也不是免费午餐:光电转换、激光器、封装、测试、散热、可靠性都会带来复杂度。
所以真实世界不是“光取代电”,而是电和光分工:
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2.3 你需要记住的五个词
GPU / AI ASIC:干活的AI芯片。GPU通用性强,ASIC更专用。
NVLink / PCIe:服务器或机柜内部的高速电互连。NVLink是NVIDIA的重要护城河,PCIe更通用。
InfiniBand / Ethernet:把很多服务器和机柜连起来的网络。InfiniBand像专用高速路,Ethernet像通用高速公路,后者正在为AI做强化。
光模块:把电信号和光信号互相转换的小盒子,插在交换机或网卡上。400G、800G、1.6T说的是它每秒能传多少数据。
硅光 / CPO / 光I/O:光通信越来越靠近芯片的三条技术路线。硅光是用半导体工艺做光子器件;CPO是把光引擎放到交换芯片旁边;光I/O是把光互连更进一步做到芯片封装附近。
三、纵向分析:AI芯片光通信是怎样被大模型“逼出来”的
3.1 第一阶段:单卡算力时代,通信还不是主角
早期深度学习加速的主线很清楚:谁的单卡算力更强,谁就更有吸引力。
那时GPU从图形渲染走向通用计算,CUDA生态逐渐成熟。AI任务虽然也需要多卡训练,但规模还没有今天这么夸张。服务器里几张GPU通过PCIe连接,外部网络更多是传统数据中心网络和HPC网络的问题。
这一阶段,通信重要,但还没有站到舞台中央。
真正的转折来自模型规模。
3.2 第二阶段:多GPU训练出现,GPU之间开始“吵着要带宽”
模型变大后,一块GPU装不下,训练也太慢。于是多GPU服务器成为主流形态。
这时GPU之间需要频繁交换数据。传统PCIe可以用,但带宽和拓扑限制很快暴露出来。NVIDIA推出NVLink,就是为了让GPU与GPU之间有更高带宽、更低延迟的专用通道。
你可以把PCIe理解成“通用城市道路”,什么设备都能走;NVLink更像“AI芯片之间的专用高架”,不一定开放给所有人,但对NVIDIA GPU集群特别有效。
这个阶段形成了一个后来非常关键的分层:
-
Scale-up:把一台服务器或一个机柜里的芯片连得更像“一台大机器”; -
Scale-out:把很多服务器、很多机柜、很多节点连成一个大集群。
AI芯片光通信主要在scale-out里爆发,也开始向scale-up边界渗透。
3.3 第三阶段:大模型时代,网络从配角变成瓶颈
大模型训练把问题推到新高度。
一方面,GPU越来越快,HBM显存带宽越来越高。另一方面,模型并行让芯片之间的数据交换变成刚需。越大的模型,越需要芯片之间像一个整体一样工作。
NVIDIA Blackwell时代的GB200 NVL72很有代表性。NVIDIA官方资料显示,GB200 NVL72把72个Blackwell GPU组成一个NVLink domain,NVLink总带宽达到130 TB/s;Blackwell第五代NVLink每GPU提供1.8 TB/s GPU-to-GPU互连带宽。这个数字的意义不只是“参数更漂亮”,而是说明AI系统正在从“服务器级”走向“机柜级AI计算机”。
但一个机柜还不够。真正的大规模训练要把许多机柜连起来。于是InfiniBand和Ethernet网络开始进入800G时代。NVIDIA Quantum-X800就是面向AI的800Gb/s InfiniBand平台;Broadcom Tomahawk 5支持64个800GbE端口,Tomahawk 6进一步到102.4Tb/s交换容量,可支持64个1.6TbE端口。
这条线索很清楚:
GPU越快,集群越大,网络越不能慢。网络越快,传统电互连越吃力。于是光通信的价值被大模型训练放大了。
3.4 第四阶段:400G到800G,再到1.6T,光模块成了AI基础设施的“消耗品”
普通人可能以为光模块是通信运营商的东西。到了AI数据中心,它变成了AI基础设施的一部分。
一个AI集群里有大量交换机、网卡、光模块和光纤。端口速率从400G升级到800G,再向1.6T演进,背后就是GPU集群对带宽的饥饿。
公开资料里可以看到几个趋势:
-
800G已经成为AI后端网络的重要过渡点; -
1.6T正在围绕200G/lane技术推进; -
Dell’Oro公开摘录预计,AI后端网络交换端口会从800Gbps继续向1600Gbps、3200Gbps演进; -
OIF已发布或启动800LR、1600ZR+等相关标准项目,说明高速光互连正在标准化。
小白可以这样理解:
以前一条高速路八车道已经够了,现在AI训练像春运叠加货运高峰,八车道不够,就要扩到十六车道,甚至三十二车道。但道路越宽,收费站、匝道、调度系统也越复杂。这就是高速光模块、交换芯片、DSP、SerDes、硅光一起升级的原因。
3.5 第五阶段:从“插在面板上”到“贴近芯片”
传统光模块像U盘一样插在交换机前面板。好处是成熟、可热插拔、坏了能换。坏处是:高速电信号要从交换芯片一路跑到前面板,再进光模块。这段电路越高速,损耗、功耗、散热越麻烦。
于是产业开始探索三种更激进的方向:
-
LPO线性可插拔光模块:仍然可插拔,但尽量减少模块内部DSP等复杂数字处理,降低功耗和延迟; -
CPO共封装光学:把光引擎搬到交换ASIC旁边,减少高速电走线距离; -
光I/O / On-package optics:把光互连进一步靠近AI芯片封装,用于XPU、CPU/GPU、内存池化等场景。
Broadcom已推出Bailly、Davisson等CPO方案,NVIDIA也发布Spectrum-X/Quantum-X Photonics CPO交换机路线。Intel展示过OCI光I/O chiplet,Lightmatter、Ayar Labs、Celestial AI等公司也在做更靠近计算芯片的光互连。
不过要注意:越靠近芯片,技术难度越大。可插拔光模块像外置配件,CPO像把配件焊进机器,光I/O则更像从机器设计之初就把光通道变成一部分。性能潜力更高,但维护、良率、标准、生态也更难。
四、横向分析:当前有哪些技术路线
4.1 路线一:传统可插拔光模块——现在的主力军
这是当前最成熟、最容易理解的路线。
交换机前面板上有很多端口,光模块插进去,另一端接光纤。模块内部负责电信号和光信号转换。400G、800G、1.6T代表每秒传输能力。
优势:
-
产业链成熟; -
可热插拔,坏了容易换; -
标准化程度高; -
适合大规模部署。
短板:
-
速率越高,模块功耗越高; -
DSP、重定时、均衡等电路增加延迟和功耗; -
前面板空间有限; -
高速电信号从交换芯片走到面板会带来损耗。
代表玩家:Coherent、Lumentum、中际旭创/Innolight、新易盛/Eoptolink、Marvell、Broadcom等。
对于未来两三年,可插拔光模块仍是AI数据中心里最现实、最主流的方案。原因不是它最酷,而是它最能量产、最能维护、最符合现有数据中心运维习惯。
4.2 路线二:LPO——在“成熟形态”里挤功耗
LPO全称Linear Pluggable Optics,线性可插拔光模块。
它的核心想法是:传统模块里有DSP,DSP很强,但也耗电、发热、增加延迟。LPO尝试把模块做得更“线性”,减少或去掉模块内复杂DSP,让主机侧SerDes和系统链路承担更多信号处理。
小白可以理解为:传统模块像自带强力美颜和修图芯片的摄像头,LPO像把一部分处理交给手机主芯片,摄像头本身更省电、更轻。但这样对手机主芯片、软件和整条链路要求更高。
优势:低功耗、低延迟、成本潜力更好,仍保留可插拔。
短板:链路预算更紧,对交换芯片/网卡SerDes能力、板级设计、互通测试要求更高。
成熟度:中早期。LPO MSA已经发布100G/lane规范,产业在推进800G和1.6T场景,但大规模互通和部署仍需要时间。
4.3 路线三:CPO——把光引擎搬到交换芯片旁边
CPO,Co-Packaged Optics,共封装光学。
它不是把整个光模块塞进芯片,而是把光引擎与交换ASIC放在同一封装或很近的位置。这样高速电信号不用跑很远,电损耗降低,系统带宽密度提高。
这条路线特别适合交换芯片。因为交换ASIC的端口数越来越多,交换容量从25.6T、51.2T到102.4T继续往上。如果所有高速信号都要走到前面板,功耗和布线压力会非常大。
优势:
-
更低电互连损耗; -
更高带宽密度; -
长期看系统能效更好; -
对未来100T、200T、400T级交换系统有吸引力。
短板:
-
可维护性不如可插拔; -
光、电、热、封装耦合更复杂; -
激光器可靠性、外置激光源、测试流程、良率都是难题; -
数据中心运维习惯要改变。
Broadcom官方博客称其CPO方案在功耗上相对可插拔系统有明显优势,并披露CPO从概念走向生产发布。NVIDIA也发布了Spectrum-X/Quantum-X Photonics CPO交换机路线,说明CPO从实验室进入早期商业化阶段。
但它还不是全面替代可插拔的阶段。更准确的判断是:CPO会先出现在功耗和密度压力最高的高端AI交换场景。
4.4 路线四:光I/O / 封装内光互连——更远的下一步
光I/O比CPO更进一步。它关心的不只是交换机,而是CPU、GPU、XPU、内存池、加速器之间的连接。
Intel展示的OCI光I/O chiplet,公开数据是4Tbps双向、5pJ/bit,并可用光纤传100米。Lightmatter Passage L200则主打每芯片32-64Tbps光I/O。Ayar Labs、Celestial AI也在类似方向探索。
这类技术的想象力很大:如果AI芯片之间能用高能效光I/O连接,未来的服务器和集群拓扑可能重写。比如GPU不一定非要被短铜线绑在一起,内存池、计算池、网络池的边界可能更灵活。
但这也最难。因为它需要芯片设计、先进封装、硅光工艺、激光器、系统架构一起改变。
短期看,它更像战略方向;中期看,可能先在少数高端客户和定制系统里出现;长期看,如果电I/O能效继续逼近瓶颈,光I/O会越来越重要。
4.5 四条路线一张表
|
|
|
|
|
|
|---|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
五、横向产业链:谁在做什么
5.1 AI芯片与系统:NVIDIA是中心变量
NVIDIA不仅卖GPU,也在控制AI集群的互连架构。
-
机柜内:NVLink、NVLink Switch、GB200 NVL72; -
集群外:InfiniBand、Spectrum-X Ethernet; -
光通信侧:硅光、CPO交换机、光模块生态。
这使得NVIDIA不像单纯芯片公司,更像AI工厂的系统架构公司。它的每一代GPU都会拉动网络、光模块、交换芯片、散热、电源一起升级。
5.2 交换芯片与SerDes:Broadcom、Marvell等是底层推手
Broadcom的Tomahawk系列很关键。Tomahawk 5对应51.2T交换容量,支持64个800GbE;Tomahawk 6到102.4T,支持64个1.6TbE,并面向AI scale-up/scale-out和Ultra Ethernet生态。
Marvell更多在DSP、TIA、激光驱动、LPO芯片组等位置发力。比如其3nm 1.6Tbps PAM4 DSP平台,以及200G/lane LPO相关芯片组,都是高速光模块升级的关键零部件。
这一层决定了“高速路口的调度能力”。没有高性能交换ASIC、SerDes、DSP,光模块本身也跑不起来。
5.3 光模块厂商:AI建设潮里的直接受益环节之一
Coherent、Lumentum、中际旭创、 新易盛等厂商提供高速光模块、激光器、VCSEL、硅光模块等产品。
在AI数据中心里,光模块数量非常可观。每台交换机、每个上行下行端口都可能对应光模块。速率从400G升级到800G、1.6T,会带来产品单价、技术门槛、产能和良率的新变化。
但这个环节也有周期性和竞争压力:客户集中、价格下降、良率爬坡、库存波动都会影响行业节奏。技术上要关注能否稳定量产800G/1.6T、能否进入头部云厂和AI系统供应链。
5.4 硅光与先进封装:未来架构的“地基”
硅光的核心价值,是用半导体工艺把光子器件集成起来,提高规模化和集成度。TSMC、Intel等都在布局硅光与先进封装结合。
TSMC的COUPE方向,目标是把EIC电子芯片、PIC光子芯片和光纤封装到更紧密的系统里。Intel OCI、Lightmatter Passage、Ayar Labs光I/O也都指向同一个大方向:光不再只是数据中心网络的外部连接,而是进入芯片系统设计。
这条线不一定最快商业化,但可能决定下一代AI计算架构的上限。
六、横纵交汇:真正的核心判断
6.1 光通信不是被AI“带火”,而是被AI“逼近芯片”
过去光通信主要解决远距离、大容量传输。AI出现后,光通信的战场向数据中心内部推进:先是交换机之间,再是机柜之间,再到交换芯片旁边,最后可能进入AI芯片封装。
这个变化很重要。
如果只是“光模块需求增加”,那还是传统通信行业的升级周期;如果光互连开始改变AI系统架构,那它就变成AI基础设施的核心技术之一。
6.2 当前主线不是“谁替代谁”,而是“距离分层”
很多讨论会把电、光、CPO、LPO放在一起争高下。更准确的看法是按距离分层:
-
芯片内部:电; -
封装/板内:电为主,光I/O探索; -
机柜内scale-up:NVLink、电缆、未来部分光; -
机柜间scale-out:光模块/光纤主导; -
最高端交换系统:CPO逐步导入。
所以短期答案不是“CPO马上替代光模块”,也不是“LPO一定赢家”。真正的图景是多路线并存:成熟量产靠可插拔,降功耗靠LPO,极限密度靠CPO,架构重构看光I/O。
6.3 AI芯片厂商会越来越像“系统公司”
AI芯片的竞争不再只是TOPS、TFLOPS、HBM容量。现在要看:
-
芯片之间怎么连; -
一个机柜能提供多少有效算力; -
网络拥塞怎么处理; -
光模块功耗怎么压; -
软件栈能否把通信隐藏起来; -
散热、电源、机房布局是否跟得上。
NVIDIA强,是因为它把GPU、NVLink、网络、软件生态和系统设计揉在一起。未来其他AI芯片公司如果只做单颗芯片,很难打到同一个层级。
6.4 未来三种剧本
最可能剧本:可插拔800G/1.6T继续放量,CPO在高端交换机逐步导入。 这是现实约束下最稳的路线。数据中心需要可维护性,供应链也需要时间迁移。
最危险剧本:高速升级太快,功耗、良率、成本和供应链跟不上。 如果1.6T、3.2T推进过快,模块功耗、DSP成本、散热、光器件良率都会变成瓶颈。AI集群会发现:芯片买得到,网络和光互连未必顺利扩容。
最乐观剧本:光I/O和先进封装成熟,AI系统架构被重新设计。 到那时,GPU、内存、交换和存储的边界可能更灵活。光互连不只是“网线”,而是AI计算机的一部分。
七、给技术小白的学习路线
如果你想继续学,不建议一上来钻论文。可以按这条路线:
-
先理解AI集群为什么需要通信:数据并行、模型并行、All-reduce; -
再理解网络分层:PCIe/NVLink是近距离,InfiniBand/Ethernet是集群网络; -
再看光模块:400G、800G、1.6T,PAM4,DSP,SerDes; -
再看硅光和CPO:为什么高速电走线变成瓶颈; -
最后看光I/O:它为什么可能改变芯片封装和系统架构。
记住一个判断就够了:
AI芯片光通信的核心矛盾,是“算力增长速度”超过了“传统电互连舒适区”。光通信的机会,就长在这个矛盾里。
附一、信息来源
以下为本报告使用或交叉参考的公开来源,访问时间为2026-04-28。
-
NVIDIA Blackwell Architecture: https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/[1] -
NVIDIA GB200 NVL72: https://www.nvidia.com/en-us/data-center/gb200-nvl72/[2] -
NVIDIA NVLink & NVLink Switch: https://www.nvidia.com/en-us/data-center/nvlink/[3] -
NVIDIA Quantum-X800 InfiniBand: https://www.nvidia.com/en-us/networking/products/infiniband/quantum-x800/[4] -
NVIDIA Ethernet / Spectrum Ethernet: https://www.nvidia.com/en-us/networking/products/ethernet/[5] -
NVIDIA Spectrum-X/Quantum-X Photonics CPO新闻: https://nvidianews.nvidia.com/news/nvidia-spectrum-x-co-packaged-optics-networking-switches-ai-factories[6] -
Broadcom Tomahawk 5: https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78900-series[7] -
Broadcom Tomahawk 6: https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78910-series[8] -
Broadcom Davisson CPO: https://www.broadcom.com/products/fiber-optic-modules-components/co-packaged-optics/switches/bcm78919[9] -
Broadcom CPO介绍: https://www.broadcom.com/info/optics/cpo[10] -
Broadcom CPO进展博客: https://www.broadcom.com/blog/ahead-of-ofc-broadcom-s-progress-towards-scaling-co-packaged-optics[11] -
Marvell 1.6Tbps PAM4 DSP: https://www.marvell.com/company/newsroom/marvell-unveils-industrys-first-3nm-1-6tbps-pam4-interconnect-platform.html[12] -
Marvell 1.6Tbps LPO chipset: https://www.marvell.com/company/newsroom/marvell-introduces-1-6-tbps-lpo-chipset.html[13] -
LPO MSA: https://www.lpo-msa.org/home.html[14] -
OIF Co-Packaging Framework IA: https://www.oiforum.com/oif-releases-co-packaging-framework-implementation-agreement/[15] -
OIF 3.2T Co-Packaged Module IA: https://www.oiforum.com/oif-launches-the-industrys-first-co-packaging-standard-the-3-2t-co-packaged-module-implementation-agreement/[16] -
OIF 800LR IA: https://www.oiforum.com/oif-releases-800lr-coherent-implementation-agreement-enabling-interoperable-low-power-high-capacity-10-km-optical-solutions/[17] -
OIF 1600ZR+项目公告: https://www.oiforum.com/oif-launches-1600zr-coherent-optical-retimed-tx-linear-rx-optical-energy-efficient-interfaces-projects-and-common-management-interface-specification-white-paper-at-q1-2024-technical-and-mae-meeting/[18] -
Dell’Oro AI后端交换市场公开摘录: https://www.delloro.com/news/ai-back-end-switch-market-will-push-past-100-billion-by-2030/[19] -
Intel OCI optical I/O chiplet: https://newsroom.intel.com/artificial-intelligence/intel-unveils-first-integrated-optical-io-chiplet[20] -
TSMC HPC Connectivity / Silicon Photonics: https://www.tsmc.com/english/dedicatedFoundry/technology/platform_HPC_tech_connectivity[21] -
TSMC Research Silicon Photonics: https://research.tsmc.com/page/on-chip-interconnect/14.html[22] -
Ansys与TSMC COUPE协作: https://www.ansys.com/news-center/press-releases/4-24-24-ansys-collaborates-with-tsmc-coupe-on-multiphysics[23] -
Lightmatter Passage L200: https://lightmatter.co/products/l200/[24] -
Coherent 200G VCSEL光模块新闻: https://www.coherent.com/news/press-releases/optical-transceivers-based-on-200g-vcsels[25] -
Lumentum 800G/1.6T产品页: https://www.lumentum.com/en/products/800g-2dr4-osfp-transceiver-module[26] -
Innolight产品页: https://www.innolight.com/en/goods/info.html?cid=8[27] -
Eoptolink 1.6T OSFP: https://www.eoptolink.com/product-solutions/16t/16t-osfp[28]
附二、方法论说明
本报告采用横纵分析法:纵向追踪技术从单卡、多卡、机柜级AI计算到光互连贴近芯片的演进;横向比较可插拔光模块、LPO、CPO、光I/O等同期路线,并在交汇处判断未来方向。本文仅用于技术与产业基本面理解,不构成投资建议。
我自己的判断是,短期最现实的主线还是800G和1.6T可插拔光模块继续放量,LPO在功耗压力里找机会,CPO先在最高端交换场景逐步导入。
至于光I/O,它更像下一代AI系统架构的伏笔。
不一定最快兑现,但一旦兑现,改变的可能就不是某个模块,而是AI计算机长什么样。
大时代啊,朋友们。
以前我们聊AI芯片,容易只盯着GPU和HBM。但越往后看,越会发现,真正的AI基础设施不是一颗芯片,而是一整套系统。
算力、内存、网络、光互连、散热、电源、软件栈,全都揉在一起。
任何一个环节掉链子,昂贵的GPU都可能在那儿等数据。
这就是这篇报告最想讲清楚的事。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~
谢谢你看我的文章,我们,下次再见。
引用链接
[1]https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/
[2]https://www.nvidia.com/en-us/data-center/gb200-nvl72/
[3]https://www.nvidia.com/en-us/data-center/nvlink/
[4]https://www.nvidia.com/en-us/networking/products/infiniband/quantum-x800/
[5]https://www.nvidia.com/en-us/networking/products/ethernet/
[6]https://nvidianews.nvidia.com/news/nvidia-spectrum-x-co-packaged-optics-networking-switches-ai-factories
[7]https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78900-series
[8]https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78910-series
[9]https://www.broadcom.com/products/fiber-optic-modules-components/co-packaged-optics/switches/bcm78919
[10]https://www.broadcom.com/info/optics/cpo
[11]https://www.broadcom.com/blog/ahead-of-ofc-broadcom-s-progress-towards-scaling-co-packaged-optics
[12]https://www.marvell.com/company/newsroom/marvell-unveils-industrys-first-3nm-1-6tbps-pam4-interconnect-platform.html
[13]https://www.marvell.com/company/newsroom/marvell-introduces-1-6-tbps-lpo-chipset.html
[14]https://www.lpo-msa.org/home.html
[15]https://www.oiforum.com/oif-releases-co-packaging-framework-implementation-agreement/
[16]https://www.oiforum.com/oif-launches-the-industrys-first-co-packaging-standard-the-3-2t-co-packaged-module-implementation-agreement/
[17]https://www.oiforum.com/oif-releases-800lr-coherent-implementation-agreement-enabling-interoperable-low-power-high-capacity-10-km-optical-solutions/
[18]https://www.oiforum.com/oif-launches-1600zr-coherent-optical-retimed-tx-linear-rx-optical-energy-efficient-interfaces-projects-and-common-management-interface-specification-white-paper-at-q1-2024-technical-and-mae-meeting/
[19]https://www.delloro.com/news/ai-back-end-switch-market-will-push-past-100-billion-by-2030/
[20]https://newsroom.intel.com/artificial-intelligence/intel-unveils-first-integrated-optical-io-chiplet
[21]https://www.tsmc.com/english/dedicatedFoundry/technology/platform_HPC_tech_connectivity
[22]https://research.tsmc.com/page/on-chip-interconnect/14.html
[23]https://www.ansys.com/news-center/press-releases/4-24-24-ansys-collaborates-with-tsmc-coupe-on-multiphysics
[24]https://lightmatter.co/products/l200/
[25]https://www.coherent.com/news/press-releases/optical-transceivers-based-on-200g-vcsels
[26]https://www.lumentum.com/en/products/800g-2dr4-osfp-transceiver-module
[27]https://www.innolight.com/en/goods/info.html?cid=8
[28]https://www.eoptolink.com/product-solutions/16t/16t-osfp
[29]wzglyay@virxact.com: mailto:wzglyay@virxact.com
夜雨聆风