
想象一个场景:一座巨型图书馆(AI大模型)里,上万人同时查阅资料。
在这个图书馆中:
算力芯片(GPU)= 那群查资料的人——脑子转得飞快,但手和脚完全跟不上。
HBM 存储芯片= 每个人怀里抱着的巨型活页夹,里面塞满了最常用、最热门的资料。
CPO 光互联= 连接座位与书架之间的传送带 / 高速公路。
PCB 电路板= 支撑整座图书馆的地基和钢筋骨架。
1. HBM(存储芯片):从“小背包”到“贴身百宝箱”
过去的痛点:GPU 算得飞快,但数据却放在远处的硬盘(SSD)或普通内存条(DDR)里。好比一个人脑子转得再快,查个资料也得站起来走十分钟去书架取。
结果:GPU 有 70% 的时间在空转等饭吃。
HBM 做了什么:把一大摞存储芯片像叠罗汉一样,直接粘在 GPU 的屁股底下。物理距离从几厘米缩短到几毫米。
结果:GPU 伸手就能够到海量数据。以前每秒传输几百 GB,现在 HBM3e 能跑到1.2TB 以上。相当于把书架直接焊在椅子扶手上——人不离座,手不离卷。
2. CPO(共封装光学):从“乡间小路堵车”到“磁悬浮直达”
过去的痛点:图书馆里有几千个这样的“聪明人”(GPU),他们需要互相传纸条交流计算结果。以前靠的是铜线(电信号)。
弊端:距离一远(超过 1 米),铜线就像乡间小土路——不仅跑不快,走两步信号就衰减了;而且为了听清对方喊话,得扯着嗓子喊(功耗巨大),机房热得像蒸笼。
CPO 做了什么:直接把激光器(光模块)焊在 GPU 旁边的电路板上,用光代替电来跑长途。
比喻:
传统方案:GPU 算完了,还得走到邮局(光模块插口)去寄信。
CPO 方案:GPU 嘴皮子一动,直接通过光纤光速传到对方耳朵里。
结果:路宽了 100 倍,电费省了一半。只有路不堵,GPU 才能 100% 满负荷运转。
3. PCB(电路板):从“普通水泥地”到“抗震停机坪”
为什么它也重要?
以前一块板子放一个 CPU 就够了,现在一块板子上要塞:
两颗巨大的GPU(发热怪兽,像两个小太阳);
六到八颗HBM(叠在 GPU 上,极其精密,怕震动);
一圈CPO 光引擎(对信号干扰极其敏感)。
AI 服务器的 PCB 升级了什么?
层数翻了三倍:普通手机主板 10 层,AI 服务器主板30 层甚至 70 层。相当于从平房地基变成了摩天大楼的深基坑,里面埋满密密麻麻的管线,保证每个设备供电不打架、信号不串扰。
材料变了:从普通纤维板变成了高速低损耗材料。为了不让信号在板子里走丢,板子的“路面质量”得像高速公路一样平整。
这时候再来看逻辑,就非常清晰了:
只升级 HBM(手里资料变多),不升级 CPO(路还是泥巴路)
→ 每个 GPU 算得飞快,但结果传不出去,所有人堵在门口干瞪眼。
只升级 CPO(修了磁悬浮),不升级 PCB(地基没变)
→ 车跑得飞快,但地基是豆腐渣。GPU 和 HBM 的供电跟不上,稍微一颠簸,HBM 那堆精密焊点就虚焊脱焊(直接蓝屏死机)。
这三样都顶配,但 HBM 容量不够
路修好了,地基稳了,但怀里抱着的活页夹太小。模型参数还没读完,内存就爆了,GPU 只能频繁去远处硬盘捡垃圾数据,整体速度被拖垮。
AI 算力的爆发,本质上是在解决一个物理矛盾:
脑子(GPU)越转越快,手脚(传输、存储、地基)必须同步长出三头六臂。
HBM 是胃:负责大口吃饭不噎着;
CPO 是血管:负责把养分瞬间送到全身;
PCB 是骨架:负责撑住这个越来越沉重的巨人身躯。
投资逻辑推演 1
HBM(存储芯片)——奢侈品
全球只有三星、海力士、美光三家能造。它直接决定了 GPU 能不能“吃饱”,所以买家(英伟达)得反过来求着卖家(海力士)供货。
投资认知:紧盯涨价新闻。只要看到“HBM 产能售罄”、“单价上涨 XX%”这类消息,对应产业链(封测、材料)的景气度就会直线飙升。
CPO(光互联)——技术新贵
以前是插拔模块(像路边摆摊),现在是直接焊死在芯片边上(像入驻商场专柜)。
CPO与光模块:2026年或是商用元年,关注增量环节
CPO(共封装光学)被视为解决AI数据中心功耗和带宽瓶颈的关键技术。机构普遍认为,2026年有望成为CPO技术的商用元年。
投资认知:紧盯渗透率。目前 CPO 还处在 0→1 的阶段,真正的爆发信号是:英伟达或博通宣布 CPO 交换机大规模出货。一旦发生,就像马车换汽车——走老路线的公司会直接掉队。
核心标的与机构观点:
简易筛选思路:关注深度绑定英伟达供应链、在800G/1.6T光模块上已实现大规模出货的厂商。
PCB(电路板)——卖水人
PCB(印制电路板):量价齐升逻辑清晰,龙头订单饱满
PCB作为"电子之母",是AI服务器中价值量显著提升的环节。在高端AI服务器PCB领域,头部厂商凭借技术和产能优势,正迎来"量价齐升"的景气周期。
赛道逻辑与催化剂:AI服务器升级(如英伟达GB200/GB300)直接带动高端PCB需求爆发。有机构测算,2025年AI服务器PCB市场规模刚超400亿元,2026年预计跃升至超900亿元,增速翻倍。
核心标的与机构观点:
简易筛选思路:重点关注已进入英伟达/AMD AI服务器供应链、且在高多层板(如30层以上)领域有成熟量产能力的头部厂商。
不管你是英伟达还是华为,只要做 AI 服务器,就得买它的板子。
投资认知:紧盯层数和良率。谁能做 70 层板?谁能把良率提到 95%?谁就是隐形冠军。普通板子打价格战,高端 AI 板子手握定价权。
投资逻辑推演 2
AI 算力集群是一个极度追求 0 短板的系统。对投资者来说:哪块木板最短,哪块木板的投资弹性就最大。
场景推演 1:HBM 缺货
→ GPU 造出来了,但没内存可配。
投资信号:资金会涌向HBM 的替代方案或先进封装设备。因为大家会想尽办法在更小的面积里塞进更多内存。
存储芯片(HBM):超级周期已至,关注产业链机遇
HBM(高带宽存储器)是AI芯片的"数据粮仓",其需求正随AI模型规模扩大而爆炸式增长,全球HBM市场已进入供不应求的"超级周期"。
赛道逻辑与催化剂:AI服务器对高速存储的需求是传统服务器的数倍,直接拉动HBM需求。目前,三大存储巨头(三星、SK海力士、美光)2026年的HBM产能已全部售罄,订单可见度已到2027年。需求火爆也推升了价格,2026年二季度DDR5内存合约价整体上涨约30%。
核心标的与机构观点:
简易筛选思路:关注存储模组龙头,这类公司业绩弹性大;或关注HBM扩产最紧缺的设备/材料环节。
场景推演 2:功耗太大,电费交不起
→ 这是当下的核心短板。
投资信号:CPO 光互联(省电)、液冷散热(降温)、第三代半导体(省电芯片)。这三个板块会因“电费焦虑”而被轮番炒作。
场景推演 3:信号串扰,算力卡死机
→ 短板在物理连接。
投资信号:高端覆铜板(CCL)和ABF 载板。PCB 升级的根源在材料——就像地基不稳,本质上是因为水泥标号不够。
逻辑讲完了,你可以自己去找找相关个股,如果不想找可以看看这些
算力银行的黎明:从先进封测到算力调度,国产AI基建迎来戴维斯双击
关注我,每天赚一杯咖啡钱
夜雨聆风