AI超大規模運算架構下,CPO光互連技術的結構性瓶頸

(本文刊載於台灣《工商時報》,2026年2月25日,作者●林偉智)
随着生成式AI与大型语言模型的训练规模持续扩张,数据中心正快速迈向十万乃至百万加速器节点等级的运算形态。在此趋势下,系统效能瓶颈已逐步由单颗芯片的运算能力,转移至节点间数据交换效率与能耗结构,其互连系统的功耗与稳定性,开始直接决定整体运算平台的经济性与可持续性。光电共封装(CPO)被视为下一阶段AI基础架构的重要支撑技术,但从工程与产业化角度观察,目前仍面临难以忽视的结构性限制。
首先在功耗层面,光互连虽能降低长距离传输损耗,却无法消除电光转换本身的能量消耗。数据在进出芯片时,仍须透过高速SerDes(序列器/解序列器)、调变器与雷射完成讯号转换。当通道数量由数十条提升至上千条甚至上万条时,即使单位能耗已压低至数皮焦耳等级,累积功耗仍快速放大,成为系统级热源。这种功耗集中现象,使高密度封装环境更容易形成局部热点,进而影响光学组件稳定度与电子组件寿命。同时,高速SerDes在极限带宽下运作,必须依赖复杂的校正与补偿机制。这些辅助电路本身亦消耗大量功率,使实际系统能耗与理论规格存在落差。当数据中心规模扩张至数万颗以上加速器时,互连系统功耗已不再是边际成本,而是直接影响电力配置与散热设计的核心因素。因此雷射加大功率恐无法作为最佳解决方案。
接着在可靠度层面,CPO面临的挑战更为深层。相较于可插拔式光模块,光电组件被深度整合于封装与中介层内,使光路、电路与散热结构高度耦合。这种设计在提升带宽密度的同时,也显著降低系统容错弹性。一旦关键光学组件或控制单元发生异常,往往无法单独更换,而必须整组停机维修,提高营运风险。
另外,可靠度风险亦体现在测试与验证难度上。CPO系统必须同时验证光学性能、电性与热稳定性,测试流程远较传统模块复杂。现阶段仍缺乏成熟且高度自动化的全流程测试体系,使潜在缺陷可能在量产后才逐步显现。对于依赖长时间稳定运作的AI平台而言,这种不确定性将直接影响系统可用率与投资回报。
从产业化角度观察,虽然Vera/Rubin平台预计在2026年底量产,2027年放量。但目前CPO仍处于商业成熟度未完整阶段,供应链分散于雷射、硅光子、先进封装与系统整合等不同体系,使质量控管与可靠度标准难以统一。在此情况下,功耗管理与稳定性保障往往必须依赖高度客制化设计,进一步限制规模化复制能力。
整体而言,AI超大规模运算对光互连的需求已具有高度确定性,带宽密度与延展能力亦具长期潜力。然而,在现阶段技术条件下,功耗累积效应与可靠度风险仍构成CPO普及化的核心障碍。只要电光转换区域的能耗无法有效收敛,封装与系统的长期稳定性仍缺乏充分验证,CPO便难以成为全面主流架构,而更可能以高端与局部导入形式存在。真正的大规模落地,仍有赖于功耗结构优化、可靠度工程体系成熟与产业协作深化,才能跨越从技术可行走向经济可行的关键门坎。

夜雨聆风