摘要:
芯片定高度,PCB做骨架,光模块传数据,交换机组网,散热保稳定,电力供能源。
背景:AI大模型狂飙突进,背后是AI算力基础设施的史诗级扩张。从训练千亿参数大模型,到支撑百万级用户并发推理,再到“东数西算”全国算力一张网,芯片、PCB、光模块、交换机、散热、电力六大环节环环相扣,构成算力时代的“钢筋铁骨”。
一、六大环节:AI算力基建的“器官协同图”
把AI智算中心比作“超级智能人体”,六大环节各司其职、缺一不可:
1. AI芯片:算力“大脑”(核心引擎)
- 角色:AI计算的绝对核心,负责矩阵运算、模型训练、推理执行。GPU、ASIC、NPU、DPU是主力,直接决定算力上限、模型规模与训练速度。
- 核心产品:英伟达H100/H200、AMD MI300、华为昇腾910/950、寒武纪思元、海光DCU。
- 关键指标:FP8/FP16算力、HBM高带宽内存、功耗(单卡700W~1500W+)。
2. PCB(印制电路板):电子“骨架+神经网络”
- 角色:所有芯片、元器件的承载与互连平台,负责高速信号传输、供电、散热路径。AI场景必须是高频高速、高多层、高密度(16~28层+)。
- 价值飞跃:传统服务器PCB价值$300~500;AI服务器PCB$1500~6000,提升5~10倍。
- 关键材料:M8/M9级高频高速覆铜板(生益科技等)。
3. 光模块:数据“传输神经”
- 角色:电信号 ↔ 光信号转换,实现服务器、交换机间超高速、低延迟数据传输。AI集群内部互联(IB/RoCE)、跨机房互联的刚需。
- 速率迭代:400G → 800G(主流)→ 1.6T(爆发)→ 3.2T(研发)。
- 下一代:CPO(共封装光学),光引擎与芯片直连,功耗降40%。
4. 交换机:网络“枢纽心脏”
- 角色:算力集群的数据路由器、调度中心,负责万级服务器组网、数据转发、流量控制。AI场景需超高带宽、超低时延、无阻塞交换。
- 核心产品:400G/800G/1.6T交换机,核心芯片(博通Tomahawk 5/6)。
5. 散热系统:运行“温控卫士”
- 角色:解决高算力芯片发热瓶颈(单柜功耗50kW~1MW),保障7×24小时稳定。传统风冷失效,液冷成刚需。
- 技术路线:冷板式液冷、浸没式液冷(PUE可<1.15)。
6. 电力系统:能源“动力心脏”
- 角色:提供持续、稳定、高效电力,含高压直流供电(HVDC)、UPS、储能、配电、绿电接入。AI数据中心电费占运营成本30%~50%。
- 关键指标:供电效率(97%+)、冗余度、绿电占比(政策要求PUE<1.25)。
二、竞争格局:全球卡位战
1. AI芯片:海外垄断,国产突围
- 全球:英伟达(≈55%)绝对龙头;AMD追赶;博通/Marvell做ASIC。
- 国内:华为昇腾(≈20%)、寒武纪、海光、平头哥、昆仑芯。
- 格局:训练卡海外主导;推理卡国产快速替代。
2. PCB:中国全球制造中心,高端突围
- 全球:中国厂商占60%+(深南、沪电、胜宏、景旺)。
- 高端:AI服务器PCB胜宏、沪电、深南绑定英伟达/浪潮。
- 格局:国产主导、高端集中。
3. 光模块:中美领跑,中国最强
- 全球:中际旭创、新易盛(中国);博通、Lumentum(美国)。
- 800G/1.6T:中国厂商全球份额≈70%。
- 格局:中国最强、高度集中、技术迭代快。
4. 交换机:美国芯片,中美整机
- 核心芯片:博通(Tomahawk)垄断(>90%)。
- 整机:思科、Arista(美);华为、新华三、紫光、盛科(中)。
- 格局:芯片卡脖子、整机国产强。
5. 散热:液冷爆发,国产崛起
- 传统风冷:全球成熟。
- 液冷:英维克、网宿科技、高澜(中);Vertiv(美)。
- 格局:AI液冷中国领先、渗透率快速提升(>40%)。
6. 电力:国产高度自主
- 国内:华为、阳光电源、英维克、中恒等全覆盖。
- 格局:基本国产化、高可靠性。
三、商业逻辑:六大环节的“赚钱密码”
1. AI芯片:技术壁垒+生态垄断+高毛利
- 逻辑:高研发(年投百亿美元)→ 先进制程(5/3nm)→ 性能垄断 → 生态绑定(CUDA)→ 高定价(H100≈$3万)→ 毛利70%~90%。
- 关键:算力越强、越稀缺、越赚钱。
2. PCB:量价齐升+高端升级+客户绑定
- 逻辑:AI服务器出货暴增(2026年≈700万台)→ 单机PCB价值×10 → 高端材料/工艺提价 → 绑定头部(英伟达/浪潮)→ 毛利20%~35%。
- 关键:层数越高、速度越快、越赚钱。
3. 光模块:速率迭代+规模效应+国产优势
- 逻辑:每2年速率翻倍 → 单价×2~3 → 规模放量 → 中国制造成本优势 → 毛利30%~50%。
- 关键:速率越高、技术越新(CPO/硅光)、越赚钱。
4. 交换机:芯片壁垒+整机规模+定制化
- 逻辑:核心芯片外购(成本50%+)→ 整机集成+软件定制 → 绑定云厂商 → 毛利25%~40%。
- 关键:带宽越大、端口越多、越赚钱。
5. 散热:液冷替代+能效刚需+政策驱动
- 逻辑:风冷→液冷(价值×5~10)→ PUE政策强制 → 高算力必配 → 毛利25%~45%。
- 关键:功率越高、密度越大、越赚钱。
6. 电力:高可靠+绿电+算电协同
- 逻辑:高功率(单柜1MW)→ 高效电源(HVDC)→ 储能+绿电 → 算电一体化 → 毛利20%~35%。
- 关键:效率越高、越绿色、越赚钱。
四、联动关系:一荣俱荣、一损俱损(最强传导链)
AI算力基建是高度协同的系统,景气度沿“芯片 → 服务器/PCB → 光模块/交换机 → 散热/电力”强传导:
1. 正向传导(需求爆发)
- 芯片涨价/缺货 → AI服务器涨价/出货受限 → PCB/光模块订单暂缓 → 散热/电力延后。
- 大模型迭代/应用爆发 → 算力需求暴增 → 芯片扩产 → 服务器放量 → PCB/光模块量价齐升 → 交换机升级 → 液冷/高压直流全面配套。
2. 技术联动(迭代共振)
- 芯片升级(HBM/Chiplet) → 要求PCB更高频、更高层。
- 芯片算力翻倍 → 数据流量×10 → 光模块800G→1.6T、交换机51.2T→102.4T。
- 功耗破1000W → 风冷淘汰 → 液冷+高效电源强制配套。
- CPO(光芯片共封) → 颠覆PCB/光模块/交换机设计,三者深度绑定。
3. 成本与供需联动
- 芯片短缺 → 服务器减产 → PCB/光模块产能过剩、价格战。
- 光模块/PCB涨价 → 服务器成本上升 → 算力租赁涨价 → 下游应用承压。
- 液冷+绿电 → PUE下降 → 电费大降 → 算力中心盈利能力提升。
五、总结:AI大基建的三大核心结论
1. 芯片是“天花板”:决定算力上限与产业高度,国产替代是长期主线。
2. PCB+光模块是“黄金双雄”:量价齐升、业绩最确定、国产最强,AI算力最受益环节。
3. 散热+电力是“隐形基石”:高算力必配、渗透率快速提升、政策强驱动。
夜雨聆风