乐于分享
好东西不私藏

AI芯片光通信,为什么突然成了AI基础设施的核心变量

AI芯片光通信,为什么突然成了AI基础设施的核心变量

事情是这样的。

这两天我在整理AI基础设施里一个特别容易被低估的方向,AI芯片光通信。

很多朋友第一次听到这个词,可能会下意识以为,这是在说「用光来算AI」。

但真不是。

更准确的说法是,当大模型训练从几张GPU,变成几千张、几万张GPU一起干活以后,问题已经不只是芯片本身够不够快了。

问题变成了,数据能不能跟上。

芯片像工厂,HBM像仓库,NVLink和PCIe像厂内传送带,InfiniBand和Ethernet像高速公路。那光模块、光纤、硅光、CPO这些东西,就像高速公路上的货运通道。

工厂再强,货堵在路上,整条生产线也会停下来。

这篇报告,我尽量按技术小白也能看懂的方式,把这件事从纵向演进和横向路线两条线捋一遍。你不需要先懂通信,也不需要先懂芯片,只要记住一个问题就够了。

AI越来越会算以后,谁来负责把数据搬过去?

这个问题,就是AI芯片光通信突然重要起来的原因。


研究时间:2026-04-28 | 所属领域:AI基础设施 / 数据中心网络 / 光通信 | 研究对象类型:技术与产业链概念 | 读者定位:技术小白友好版

一、一句话定义

AI芯片光通信不是“用光来计算AI”,而是:当成千上万颗GPU、AI ASIC或交换芯片一起训练和运行大模型时,用光纤、光模块、硅光、共封装光学等技术,把芯片之间、服务器之间、机柜之间的数据搬得更快、更省电、更远。

如果把AI芯片比作一座座工厂,HBM显存是工厂旁边的仓库,NVLink/PCIe是厂内传送带,以太网/InfiniBand是高速公路,光模块和光纤就是高速公路上的货运通道。大模型时代,问题不只是“工厂里机器够不够快”,还变成了“货能不能及时送到”。

这就是AI芯片和光通信突然绑定在一起的原因。


二、先给小白搭一个技术地图

2.1 AI训练为什么需要“通信”

训练大模型通常不是一块芯片单独完成。原因很简单:模型太大、数据太多、训练时间太长。

于是工程师会把任务拆给很多GPU或AI加速器:

  • 有的芯片处理不同数据,这叫数据并行
  • 有的芯片负责模型的不同部分,这叫模型并行/张量并行/流水线并行
  • 每一步训练后,芯片之间还要同步梯度、参数或中间激活值。

这时就出现一个朴素但残酷的问题:

算得再快,如果数据搬不过来,芯片就会等。

GPU等数据,就像工人站在流水线旁边没材料。买了昂贵芯片,却被网络拖住,整个AI集群的性价比就会下降。

2.2 “电通信”和“光通信”的区别

芯片内部天然是电信号。晶体管开关、电压高低、电流变化,这些都是电世界。

但电信号有几个麻烦:

  1. 跑远了会衰减:距离越长,信号越糊;
  2. 跑快了更难保持清晰:速度越高,噪声、串扰、损耗越明显;
  3. 需要复杂补偿电路:比如均衡器、重定时器、DSP,这些都会耗电、发热、增加成本;
  4. 线缆会变粗、变重、变难管理:高密度AI机柜里,铜缆不是无限可堆的。

光通信的思路是:把电信号变成光信号,用光纤传输。光纤在较长距离、高带宽场景里损耗更低、抗干扰更好、密度更高。

但光也不是免费午餐:光电转换、激光器、封装、测试、散热、可靠性都会带来复杂度。

所以真实世界不是“光取代电”,而是电和光分工

位置
常见方式
原因
芯片内部
电互连
距离极短,CMOS电路成熟
封装内/板内
主要是电,少量光I/O探索
距离短,但带宽密度压力上升
服务器内GPU互连
NVLink、PCIe、铜缆等
低延迟、近距离、高可控
机柜内/机柜间
电缆 + 光模块/光纤
距离和速率上升后光更合适
数据中心集群
以太网/InfiniBand + 光纤
大规模、长距离、高带宽

2.3 你需要记住的五个词

GPU / AI ASIC:干活的AI芯片。GPU通用性强,ASIC更专用。

NVLink / PCIe:服务器或机柜内部的高速电互连。NVLink是NVIDIA的重要护城河,PCIe更通用。

InfiniBand / Ethernet:把很多服务器和机柜连起来的网络。InfiniBand像专用高速路,Ethernet像通用高速公路,后者正在为AI做强化。

光模块:把电信号和光信号互相转换的小盒子,插在交换机或网卡上。400G、800G、1.6T说的是它每秒能传多少数据。

硅光 / CPO / 光I/O:光通信越来越靠近芯片的三条技术路线。硅光是用半导体工艺做光子器件;CPO是把光引擎放到交换芯片旁边;光I/O是把光互连更进一步做到芯片封装附近。


三、纵向分析:AI芯片光通信是怎样被大模型“逼出来”的

3.1 第一阶段:单卡算力时代,通信还不是主角

早期深度学习加速的主线很清楚:谁的单卡算力更强,谁就更有吸引力。

那时GPU从图形渲染走向通用计算,CUDA生态逐渐成熟。AI任务虽然也需要多卡训练,但规模还没有今天这么夸张。服务器里几张GPU通过PCIe连接,外部网络更多是传统数据中心网络和HPC网络的问题。

这一阶段,通信重要,但还没有站到舞台中央。

真正的转折来自模型规模。

3.2 第二阶段:多GPU训练出现,GPU之间开始“吵着要带宽”

模型变大后,一块GPU装不下,训练也太慢。于是多GPU服务器成为主流形态。

这时GPU之间需要频繁交换数据。传统PCIe可以用,但带宽和拓扑限制很快暴露出来。NVIDIA推出NVLink,就是为了让GPU与GPU之间有更高带宽、更低延迟的专用通道。

你可以把PCIe理解成“通用城市道路”,什么设备都能走;NVLink更像“AI芯片之间的专用高架”,不一定开放给所有人,但对NVIDIA GPU集群特别有效。

这个阶段形成了一个后来非常关键的分层:

  • Scale-up:把一台服务器或一个机柜里的芯片连得更像“一台大机器”;
  • Scale-out:把很多服务器、很多机柜、很多节点连成一个大集群。

AI芯片光通信主要在scale-out里爆发,也开始向scale-up边界渗透。

3.3 第三阶段:大模型时代,网络从配角变成瓶颈

大模型训练把问题推到新高度。

一方面,GPU越来越快,HBM显存带宽越来越高。另一方面,模型并行让芯片之间的数据交换变成刚需。越大的模型,越需要芯片之间像一个整体一样工作。

NVIDIA Blackwell时代的GB200 NVL72很有代表性。NVIDIA官方资料显示,GB200 NVL72把72个Blackwell GPU组成一个NVLink domain,NVLink总带宽达到130 TB/s;Blackwell第五代NVLink每GPU提供1.8 TB/s GPU-to-GPU互连带宽。这个数字的意义不只是“参数更漂亮”,而是说明AI系统正在从“服务器级”走向“机柜级AI计算机”。

但一个机柜还不够。真正的大规模训练要把许多机柜连起来。于是InfiniBand和Ethernet网络开始进入800G时代。NVIDIA Quantum-X800就是面向AI的800Gb/s InfiniBand平台;Broadcom Tomahawk 5支持64个800GbE端口,Tomahawk 6进一步到102.4Tb/s交换容量,可支持64个1.6TbE端口。

这条线索很清楚:

GPU越快,集群越大,网络越不能慢。网络越快,传统电互连越吃力。于是光通信的价值被大模型训练放大了。

3.4 第四阶段:400G到800G,再到1.6T,光模块成了AI基础设施的“消耗品”

普通人可能以为光模块是通信运营商的东西。到了AI数据中心,它变成了AI基础设施的一部分。

一个AI集群里有大量交换机、网卡、光模块和光纤。端口速率从400G升级到800G,再向1.6T演进,背后就是GPU集群对带宽的饥饿。

公开资料里可以看到几个趋势:

  • 800G已经成为AI后端网络的重要过渡点;
  • 1.6T正在围绕200G/lane技术推进;
  • Dell’Oro公开摘录预计,AI后端网络交换端口会从800Gbps继续向1600Gbps、3200Gbps演进;
  • OIF已发布或启动800LR、1600ZR+等相关标准项目,说明高速光互连正在标准化。

小白可以这样理解:

以前一条高速路八车道已经够了,现在AI训练像春运叠加货运高峰,八车道不够,就要扩到十六车道,甚至三十二车道。但道路越宽,收费站、匝道、调度系统也越复杂。这就是高速光模块、交换芯片、DSP、SerDes、硅光一起升级的原因。

3.5 第五阶段:从“插在面板上”到“贴近芯片”

传统光模块像U盘一样插在交换机前面板。好处是成熟、可热插拔、坏了能换。坏处是:高速电信号要从交换芯片一路跑到前面板,再进光模块。这段电路越高速,损耗、功耗、散热越麻烦。

于是产业开始探索三种更激进的方向:

  1. LPO线性可插拔光模块:仍然可插拔,但尽量减少模块内部DSP等复杂数字处理,降低功耗和延迟;
  2. CPO共封装光学:把光引擎搬到交换ASIC旁边,减少高速电走线距离;
  3. 光I/O / On-package optics:把光互连进一步靠近AI芯片封装,用于XPU、CPU/GPU、内存池化等场景。

Broadcom已推出Bailly、Davisson等CPO方案,NVIDIA也发布Spectrum-X/Quantum-X Photonics CPO交换机路线。Intel展示过OCI光I/O chiplet,Lightmatter、Ayar Labs、Celestial AI等公司也在做更靠近计算芯片的光互连。

不过要注意:越靠近芯片,技术难度越大。可插拔光模块像外置配件,CPO像把配件焊进机器,光I/O则更像从机器设计之初就把光通道变成一部分。性能潜力更高,但维护、良率、标准、生态也更难。


四、横向分析:当前有哪些技术路线

4.1 路线一:传统可插拔光模块——现在的主力军

这是当前最成熟、最容易理解的路线。

交换机前面板上有很多端口,光模块插进去,另一端接光纤。模块内部负责电信号和光信号转换。400G、800G、1.6T代表每秒传输能力。

优势

  • 产业链成熟;
  • 可热插拔,坏了容易换;
  • 标准化程度高;
  • 适合大规模部署。

短板

  • 速率越高,模块功耗越高;
  • DSP、重定时、均衡等电路增加延迟和功耗;
  • 前面板空间有限;
  • 高速电信号从交换芯片走到面板会带来损耗。

代表玩家:Coherent、Lumentum、中际旭创/Innolight、新易盛/Eoptolink、Marvell、Broadcom等。

对于未来两三年,可插拔光模块仍是AI数据中心里最现实、最主流的方案。原因不是它最酷,而是它最能量产、最能维护、最符合现有数据中心运维习惯。

4.2 路线二:LPO——在“成熟形态”里挤功耗

LPO全称Linear Pluggable Optics,线性可插拔光模块。

它的核心想法是:传统模块里有DSP,DSP很强,但也耗电、发热、增加延迟。LPO尝试把模块做得更“线性”,减少或去掉模块内复杂DSP,让主机侧SerDes和系统链路承担更多信号处理。

小白可以理解为:传统模块像自带强力美颜和修图芯片的摄像头,LPO像把一部分处理交给手机主芯片,摄像头本身更省电、更轻。但这样对手机主芯片、软件和整条链路要求更高。

优势:低功耗、低延迟、成本潜力更好,仍保留可插拔。

短板:链路预算更紧,对交换芯片/网卡SerDes能力、板级设计、互通测试要求更高。

成熟度:中早期。LPO MSA已经发布100G/lane规范,产业在推进800G和1.6T场景,但大规模互通和部署仍需要时间。

4.3 路线三:CPO——把光引擎搬到交换芯片旁边

CPO,Co-Packaged Optics,共封装光学。

它不是把整个光模块塞进芯片,而是把光引擎与交换ASIC放在同一封装或很近的位置。这样高速电信号不用跑很远,电损耗降低,系统带宽密度提高。

这条路线特别适合交换芯片。因为交换ASIC的端口数越来越多,交换容量从25.6T、51.2T到102.4T继续往上。如果所有高速信号都要走到前面板,功耗和布线压力会非常大。

优势

  • 更低电互连损耗;
  • 更高带宽密度;
  • 长期看系统能效更好;
  • 对未来100T、200T、400T级交换系统有吸引力。

短板

  • 可维护性不如可插拔;
  • 光、电、热、封装耦合更复杂;
  • 激光器可靠性、外置激光源、测试流程、良率都是难题;
  • 数据中心运维习惯要改变。

Broadcom官方博客称其CPO方案在功耗上相对可插拔系统有明显优势,并披露CPO从概念走向生产发布。NVIDIA也发布了Spectrum-X/Quantum-X Photonics CPO交换机路线,说明CPO从实验室进入早期商业化阶段。

但它还不是全面替代可插拔的阶段。更准确的判断是:CPO会先出现在功耗和密度压力最高的高端AI交换场景

4.4 路线四:光I/O / 封装内光互连——更远的下一步

光I/O比CPO更进一步。它关心的不只是交换机,而是CPU、GPU、XPU、内存池、加速器之间的连接。

Intel展示的OCI光I/O chiplet,公开数据是4Tbps双向、5pJ/bit,并可用光纤传100米。Lightmatter Passage L200则主打每芯片32-64Tbps光I/O。Ayar Labs、Celestial AI也在类似方向探索。

这类技术的想象力很大:如果AI芯片之间能用高能效光I/O连接,未来的服务器和集群拓扑可能重写。比如GPU不一定非要被短铜线绑在一起,内存池、计算池、网络池的边界可能更灵活。

但这也最难。因为它需要芯片设计、先进封装、硅光工艺、激光器、系统架构一起改变。

短期看,它更像战略方向;中期看,可能先在少数高端客户和定制系统里出现;长期看,如果电I/O能效继续逼近瓶颈,光I/O会越来越重要。

4.5 四条路线一张表

技术路线
小白类比
当前价值
最大难点
成熟度
可插拔光模块
插在交换机上的“光网卡U盘”
量产、可维护、当前主力
高速下功耗和面板密度压力
最高
LPO
省掉部分“修图芯片”的轻量模块
降功耗、低延迟,保留可插拔
对主机和链路设计要求高
中早期
CPO
把光引擎搬到交换芯片旁边
降低高速电损耗,提高密度
可维护性、封装、散热、良率
早期商用
光I/O
让芯片直接长出“光接口”
打开下一代架构空间
需重构芯片/封装/系统生态
研发到早期导入

五、横向产业链:谁在做什么

5.1 AI芯片与系统:NVIDIA是中心变量

NVIDIA不仅卖GPU,也在控制AI集群的互连架构。

  • 机柜内:NVLink、NVLink Switch、GB200 NVL72;
  • 集群外:InfiniBand、Spectrum-X Ethernet;
  • 光通信侧:硅光、CPO交换机、光模块生态。

这使得NVIDIA不像单纯芯片公司,更像AI工厂的系统架构公司。它的每一代GPU都会拉动网络、光模块、交换芯片、散热、电源一起升级。

5.2 交换芯片与SerDes:Broadcom、Marvell等是底层推手

Broadcom的Tomahawk系列很关键。Tomahawk 5对应51.2T交换容量,支持64个800GbE;Tomahawk 6到102.4T,支持64个1.6TbE,并面向AI scale-up/scale-out和Ultra Ethernet生态。

Marvell更多在DSP、TIA、激光驱动、LPO芯片组等位置发力。比如其3nm 1.6Tbps PAM4 DSP平台,以及200G/lane LPO相关芯片组,都是高速光模块升级的关键零部件。

这一层决定了“高速路口的调度能力”。没有高性能交换ASIC、SerDes、DSP,光模块本身也跑不起来。

5.3 光模块厂商:AI建设潮里的直接受益环节之一

Coherent、Lumentum、中际旭创、 新易盛等厂商提供高速光模块、激光器、VCSEL、硅光模块等产品。

在AI数据中心里,光模块数量非常可观。每台交换机、每个上行下行端口都可能对应光模块。速率从400G升级到800G、1.6T,会带来产品单价、技术门槛、产能和良率的新变化。

但这个环节也有周期性和竞争压力:客户集中、价格下降、良率爬坡、库存波动都会影响行业节奏。技术上要关注能否稳定量产800G/1.6T、能否进入头部云厂和AI系统供应链。

5.4 硅光与先进封装:未来架构的“地基”

硅光的核心价值,是用半导体工艺把光子器件集成起来,提高规模化和集成度。TSMC、Intel等都在布局硅光与先进封装结合。

TSMC的COUPE方向,目标是把EIC电子芯片、PIC光子芯片和光纤封装到更紧密的系统里。Intel OCI、Lightmatter Passage、Ayar Labs光I/O也都指向同一个大方向:光不再只是数据中心网络的外部连接,而是进入芯片系统设计。

这条线不一定最快商业化,但可能决定下一代AI计算架构的上限。


六、横纵交汇:真正的核心判断

6.1 光通信不是被AI“带火”,而是被AI“逼近芯片”

过去光通信主要解决远距离、大容量传输。AI出现后,光通信的战场向数据中心内部推进:先是交换机之间,再是机柜之间,再到交换芯片旁边,最后可能进入AI芯片封装。

这个变化很重要。

如果只是“光模块需求增加”,那还是传统通信行业的升级周期;如果光互连开始改变AI系统架构,那它就变成AI基础设施的核心技术之一。

6.2 当前主线不是“谁替代谁”,而是“距离分层”

很多讨论会把电、光、CPO、LPO放在一起争高下。更准确的看法是按距离分层:

  • 芯片内部:电;
  • 封装/板内:电为主,光I/O探索;
  • 机柜内scale-up:NVLink、电缆、未来部分光;
  • 机柜间scale-out:光模块/光纤主导;
  • 最高端交换系统:CPO逐步导入。

所以短期答案不是“CPO马上替代光模块”,也不是“LPO一定赢家”。真正的图景是多路线并存:成熟量产靠可插拔,降功耗靠LPO,极限密度靠CPO,架构重构看光I/O。

6.3 AI芯片厂商会越来越像“系统公司”

AI芯片的竞争不再只是TOPS、TFLOPS、HBM容量。现在要看:

  • 芯片之间怎么连;
  • 一个机柜能提供多少有效算力;
  • 网络拥塞怎么处理;
  • 光模块功耗怎么压;
  • 软件栈能否把通信隐藏起来;
  • 散热、电源、机房布局是否跟得上。

NVIDIA强,是因为它把GPU、NVLink、网络、软件生态和系统设计揉在一起。未来其他AI芯片公司如果只做单颗芯片,很难打到同一个层级。

6.4 未来三种剧本

最可能剧本:可插拔800G/1.6T继续放量,CPO在高端交换机逐步导入。 这是现实约束下最稳的路线。数据中心需要可维护性,供应链也需要时间迁移。

最危险剧本:高速升级太快,功耗、良率、成本和供应链跟不上。 如果1.6T、3.2T推进过快,模块功耗、DSP成本、散热、光器件良率都会变成瓶颈。AI集群会发现:芯片买得到,网络和光互连未必顺利扩容。

最乐观剧本:光I/O和先进封装成熟,AI系统架构被重新设计。 到那时,GPU、内存、交换和存储的边界可能更灵活。光互连不只是“网线”,而是AI计算机的一部分。


七、给技术小白的学习路线

如果你想继续学,不建议一上来钻论文。可以按这条路线:

  1. 先理解AI集群为什么需要通信:数据并行、模型并行、All-reduce;
  2. 再理解网络分层:PCIe/NVLink是近距离,InfiniBand/Ethernet是集群网络;
  3. 再看光模块:400G、800G、1.6T,PAM4,DSP,SerDes;
  4. 再看硅光和CPO:为什么高速电走线变成瓶颈;
  5. 最后看光I/O:它为什么可能改变芯片封装和系统架构。

记住一个判断就够了:

AI芯片光通信的核心矛盾,是“算力增长速度”超过了“传统电互连舒适区”。光通信的机会,就长在这个矛盾里。


附一、信息来源

以下为本报告使用或交叉参考的公开来源,访问时间为2026-04-28。

  1. NVIDIA Blackwell Architecture: https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/[1]
  2. NVIDIA GB200 NVL72: https://www.nvidia.com/en-us/data-center/gb200-nvl72/[2]
  3. NVIDIA NVLink & NVLink Switch: https://www.nvidia.com/en-us/data-center/nvlink/[3]
  4. NVIDIA Quantum-X800 InfiniBand: https://www.nvidia.com/en-us/networking/products/infiniband/quantum-x800/[4]
  5. NVIDIA Ethernet / Spectrum Ethernet: https://www.nvidia.com/en-us/networking/products/ethernet/[5]
  6. NVIDIA Spectrum-X/Quantum-X Photonics CPO新闻: https://nvidianews.nvidia.com/news/nvidia-spectrum-x-co-packaged-optics-networking-switches-ai-factories[6]
  7. Broadcom Tomahawk 5: https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78900-series[7]
  8. Broadcom Tomahawk 6: https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78910-series[8]
  9. Broadcom Davisson CPO: https://www.broadcom.com/products/fiber-optic-modules-components/co-packaged-optics/switches/bcm78919[9]
  10. Broadcom CPO介绍: https://www.broadcom.com/info/optics/cpo[10]
  11. Broadcom CPO进展博客: https://www.broadcom.com/blog/ahead-of-ofc-broadcom-s-progress-towards-scaling-co-packaged-optics[11]
  12. Marvell 1.6Tbps PAM4 DSP: https://www.marvell.com/company/newsroom/marvell-unveils-industrys-first-3nm-1-6tbps-pam4-interconnect-platform.html[12]
  13. Marvell 1.6Tbps LPO chipset: https://www.marvell.com/company/newsroom/marvell-introduces-1-6-tbps-lpo-chipset.html[13]
  14. LPO MSA: https://www.lpo-msa.org/home.html[14]
  15. OIF Co-Packaging Framework IA: https://www.oiforum.com/oif-releases-co-packaging-framework-implementation-agreement/[15]
  16. OIF 3.2T Co-Packaged Module IA: https://www.oiforum.com/oif-launches-the-industrys-first-co-packaging-standard-the-3-2t-co-packaged-module-implementation-agreement/[16]
  17. OIF 800LR IA: https://www.oiforum.com/oif-releases-800lr-coherent-implementation-agreement-enabling-interoperable-low-power-high-capacity-10-km-optical-solutions/[17]
  18. OIF 1600ZR+项目公告: https://www.oiforum.com/oif-launches-1600zr-coherent-optical-retimed-tx-linear-rx-optical-energy-efficient-interfaces-projects-and-common-management-interface-specification-white-paper-at-q1-2024-technical-and-mae-meeting/[18]
  19. Dell’Oro AI后端交换市场公开摘录: https://www.delloro.com/news/ai-back-end-switch-market-will-push-past-100-billion-by-2030/[19]
  20. Intel OCI optical I/O chiplet: https://newsroom.intel.com/artificial-intelligence/intel-unveils-first-integrated-optical-io-chiplet[20]
  21. TSMC HPC Connectivity / Silicon Photonics: https://www.tsmc.com/english/dedicatedFoundry/technology/platform_HPC_tech_connectivity[21]
  22. TSMC Research Silicon Photonics: https://research.tsmc.com/page/on-chip-interconnect/14.html[22]
  23. Ansys与TSMC COUPE协作: https://www.ansys.com/news-center/press-releases/4-24-24-ansys-collaborates-with-tsmc-coupe-on-multiphysics[23]
  24. Lightmatter Passage L200: https://lightmatter.co/products/l200/[24]
  25. Coherent 200G VCSEL光模块新闻: https://www.coherent.com/news/press-releases/optical-transceivers-based-on-200g-vcsels[25]
  26. Lumentum 800G/1.6T产品页: https://www.lumentum.com/en/products/800g-2dr4-osfp-transceiver-module[26]
  27. Innolight产品页: https://www.innolight.com/en/goods/info.html?cid=8[27]
  28. Eoptolink 1.6T OSFP: https://www.eoptolink.com/product-solutions/16t/16t-osfp[28]

附二、方法论说明

本报告采用横纵分析法:纵向追踪技术从单卡、多卡、机柜级AI计算到光互连贴近芯片的演进;横向比较可插拔光模块、LPO、CPO、光I/O等同期路线,并在交汇处判断未来方向。本文仅用于技术与产业基本面理解,不构成投资建议。


我自己的判断是,短期最现实的主线还是800G和1.6T可插拔光模块继续放量,LPO在功耗压力里找机会,CPO先在最高端交换场景逐步导入。

至于光I/O,它更像下一代AI系统架构的伏笔。

不一定最快兑现,但一旦兑现,改变的可能就不是某个模块,而是AI计算机长什么样。

大时代啊,朋友们。

以前我们聊AI芯片,容易只盯着GPU和HBM。但越往后看,越会发现,真正的AI基础设施不是一颗芯片,而是一整套系统。

算力、内存、网络、光互连、散热、电源、软件栈,全都揉在一起。

任何一个环节掉链子,昂贵的GPU都可能在那儿等数据。

这就是这篇报告最想讲清楚的事。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~

谢谢你看我的文章,我们,下次再见。

引用链接

[1]https://www.nvidia.com/en-us/data-center/technologies/blackwell-architecture/

[2]https://www.nvidia.com/en-us/data-center/gb200-nvl72/

[3]https://www.nvidia.com/en-us/data-center/nvlink/

[4]https://www.nvidia.com/en-us/networking/products/infiniband/quantum-x800/

[5]https://www.nvidia.com/en-us/networking/products/ethernet/

[6]https://nvidianews.nvidia.com/news/nvidia-spectrum-x-co-packaged-optics-networking-switches-ai-factories

[7]https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78900-series

[8]https://www.broadcom.com/products/ethernet-connectivity/switching/strataxgs/bcm78910-series

[9]https://www.broadcom.com/products/fiber-optic-modules-components/co-packaged-optics/switches/bcm78919

[10]https://www.broadcom.com/info/optics/cpo

[11]https://www.broadcom.com/blog/ahead-of-ofc-broadcom-s-progress-towards-scaling-co-packaged-optics

[12]https://www.marvell.com/company/newsroom/marvell-unveils-industrys-first-3nm-1-6tbps-pam4-interconnect-platform.html

[13]https://www.marvell.com/company/newsroom/marvell-introduces-1-6-tbps-lpo-chipset.html

[14]https://www.lpo-msa.org/home.html

[15]https://www.oiforum.com/oif-releases-co-packaging-framework-implementation-agreement/

[16]https://www.oiforum.com/oif-launches-the-industrys-first-co-packaging-standard-the-3-2t-co-packaged-module-implementation-agreement/

[17]https://www.oiforum.com/oif-releases-800lr-coherent-implementation-agreement-enabling-interoperable-low-power-high-capacity-10-km-optical-solutions/

[18]https://www.oiforum.com/oif-launches-1600zr-coherent-optical-retimed-tx-linear-rx-optical-energy-efficient-interfaces-projects-and-common-management-interface-specification-white-paper-at-q1-2024-technical-and-mae-meeting/

[19]https://www.delloro.com/news/ai-back-end-switch-market-will-push-past-100-billion-by-2030/

[20]https://newsroom.intel.com/artificial-intelligence/intel-unveils-first-integrated-optical-io-chiplet

[21]https://www.tsmc.com/english/dedicatedFoundry/technology/platform_HPC_tech_connectivity

[22]https://research.tsmc.com/page/on-chip-interconnect/14.html

[23]https://www.ansys.com/news-center/press-releases/4-24-24-ansys-collaborates-with-tsmc-coupe-on-multiphysics

[24]https://lightmatter.co/products/l200/

[25]https://www.coherent.com/news/press-releases/optical-transceivers-based-on-200g-vcsels

[26]https://www.lumentum.com/en/products/800g-2dr4-osfp-transceiver-module

[27]https://www.innolight.com/en/goods/info.html?cid=8

[28]https://www.eoptolink.com/product-solutions/16t/16t-osfp

[29]wzglyay@virxact.com: mailto:wzglyay@virxact.com