CPU在AI服务器的比例不断提高 澜起为何受益?

把知识星球会员同学的一个提问放到公众号上。
同学问两个问题,第一,推理将大幅提升CPU用量这个趋势确定性强吗?第二,国内相关标的是不是还是澜起跟聚辰这种好一些?
我先把结论给一个定调的说法 “推理提升 CPU 用量”这个方向是成立的,但卖方把它简单映射成 x86 或 CPU股票,逻辑是不完整的。
而A股炒澜起、聚辰,更多是从CPU 配比提高 → 主机侧内存/互连/DDR5 模组配套增加这条二阶链条去映射,不是它们直接卖CPU。
推理会不会大幅提升 CPU 用量?方向成立。我的看法是CPU 配比提升这个趋势是有确定性的,但提升幅度、节奏、以及到底利好谁,要分清楚,区分这些不同才是做好投资的关键。
现在卖方喜欢讲AI 推理时代 CPU 用量大幅提升,这个说法本身是对的。因为推理,尤其是未来的 agentic AI、MoE、多轮对话、RAG、工具调用、多模态推理,已经不是过去那种简单把 token 喂给 GPU 的线性计算。
它越来越像一个复杂的在线服务系统,前面有请求调度、检索、排序、数据预处理、tokenization、KV cache 管理、batching、路由、网络通信、存储访问、失败重试、服务编排,后面还有结果校验、函数调用、数据库访问。
这些事情很多并不适合全部放在 GPU/TPU 上做,而是由 CPU 和主机侧系统来完成。
Google 最近发布 TPU 8t/8i 时,官方也特别强调第八代 TPU 系统集成 Arm-based Axion CPU host,是为了移除 data preparation latency 造成的 host bottleneck,让 TPU 不要因为主机侧供料、预处理、编排跟不上而停下来。
Google明确说,Axion 提供了处理复杂数据预处理和 orchestration 的 compute headroom,让 TPU 保持fed,不要 stall。
所以从技术原理上讲,CPU 配比提高不是因为 CPU 替代 GPU 做矩阵乘,而是因为加速器越来越强,主机侧不能成为瓶颈。
GPU/TPU 的 FLOPS、HBM 带宽、互联带宽都在快速上升,如果 CPU、内存、PCIe/CXL、网络、存储调度跟不上,整个系统的有效利用率就会下降。AI 数据中心真正追求的是系统吞吐,而不是单颗 GPU 理论峰值。
为什么推理阶段更容易拉高 CPU/主机侧需求?
训练任务相对更批处理化,数据流和计算图更稳定,GPU/TPU 可以长时间跑大 batch、大矩阵。
推理不一样,特别是在线推理,天然有几个特点:
第一,请求更碎片化。
不同用户的问题长度、上下文长度、模型调用路径都不一样,导致 batching、调度、排队、延迟控制都更复杂。CPU 要负责把这些不规则请求整理成 GPU/TPU 能高效处理的形态。
第二,agentic AI 会让推理从一次模型调用变成多次系统调用。
未来的 AI 助手不是只生成一段文字,而是要搜索、调用工具、读数据库、执行代码、调用外部 API、再回到模型。这些流程里,大量工作发生在 CPU、内存、网络、存储和软件栈上。
第三,MoE 和长上下文会提高系统调度复杂度。
MoE 需要专家路由,不同 token 走不同专家,通信和调度压力会增加。长上下文、KV cache 管理、prefix cache、paged attention 等,也需要更复杂的内存管理和调度策略。
Google 第八代 TPU 的介绍里,也把更高互联带宽、on-chip Collectives Acceleration Engine、降低 on-chip latency 等作为解决 MoE 和推理瓶颈的重要改进。
第四,GPU/TPU 越强,CPU 侧越不能拖后腿。
过去 8 卡服务器里面 CPU 只要不明显拖后腿就行,未来 rack-scale AI system 里面,几十颗甚至上千颗加速器被当作一个系统来调度,CPU、内存、PCIe/CXL、以太网/IB、存储 I/O 都变成整体效率的一部分。
所以,CPU 用量提升的核心不是AI 要靠CPU算,而是AI 推理系统变复杂后,主机侧控制面、数据面、内存面、调度面的负担都提高了。
但这个逻辑不能直接推导成利好 Intel跟AMD x86 CPU 这里是我认为卖方最容易偷换概念的地方。
CPU 配比提高,确实是趋势,但是谁受益,不一定是传统 x86 CPU 厂商。
因为 AI 加速器的主机 CPU,正在从传统 x86 走向 CSP 自研或者加速器厂商自带 CPU,这全部是Arm的天下。
英伟达 GB200 NVL72 是非常典型的例子,一个 rack 里面是 36 颗 Grace CPU + 72 颗 Blackwell GPU,也就是 2 颗 GPU 配 1 颗 Grace CPU。Grace 本身是 Arm 架构,不是 x86。
Google TPU 8 也开始明确使用自研 Axion Arm CPU host。第八代 TPU 首次两款芯片都运行在 Google 自己的 Axion ARM-based CPU host 上,以优化整个系统,而不只是优化 TPU 芯片。
TPU 8i 平台的 TPU-to-CPU 比例约为 2:1,而此前 Ironwood 系统大约是 4:1,说明主机 CPU 配比确实在提高,但方向是 Google 自研 Arm CPU,而不是回到TPU 5以前的 Intel 至強Xeon。
AWS 也是类似逻辑。Trainium2 UltraServer 是 AWS 自研 Trainium2,通过 NeuronLink 连接到 64 颗 Trainium2 芯片,AWS 的 AI 硬件体系自然会优先和自家 Graviton、Nitro、EFA、Neuron 软件栈结合,基本没有外采传统 x86 方案。
所以AI 推理拉高 CPU 配比是对的,但它更像是利好 Arm 架构、自研 CPU、台积电先进制程、先进封装、内存接口、PCIe/CXL/Retimer、服务器主板和系统级互连,而不是直接利好 Intel/AMD 这种传统 x86 CPU。
AMD 的特殊性在于,它的 GPU 平台可以和 EPYC 绑定,所以 AMD 有一定受益逻辑,但如果讨论全球最大几个 AI ASIC/GPU 体系,英伟达、Google、AWS,主机 CPU 越来越多是 Arm/自研路线。
Meta 即使自身量小一些,他也几乎不外采x86 CPU,之前用过AWS的自研,目前则在部署英伟达 Grace CPU,并测试下一代 Vera CPU,这都是 Arm 服务器 CPU 进入 AI 数据中心的方向。

那为什么 A 股会炒澜起、聚辰?我不太关注A股市场的各种小道消息,炒作标的也不太关注,我只能从你提出的这两家从产业逻辑上帮你分析。
A 股一般不会只炒最直接受益,因为全球AI主流标的,A股除了光模块跟PCB以外A股很少有直接标的。比如全世界炒存储芯片,我们炒的却是存储模组厂跟代理商。
所以大A通常会炒能讲成产业链映射的公司,请注意是『能讲成』也就是逻辑能挂勾上,先不管真假,然后是『能映射』即可,不一定要相关度很高能扯得上说得通的也行。
澜起和聚辰被拉进这个逻辑,自然不是卖 CPU,而是因为 CPU 配比提高以后,主机侧 DDR5 内存模组、内存接口芯片、SPD、TS、PMIC、PCIe Retimer、CXL 等配套器件用量也会提高。
我认为澜起科技的逻辑比聚辰硬很多。它不是 CPU 公司,而是服务器内存接口和高速互连芯片公司。 澜起产品线覆盖 DDR5 RCD、DB、MRCD、MDB、SPD Hub、TS、PMIC 等,其中 MRCD/MDB 是 DDR5 MRDIMM/MCRDIMM 高带宽内存模组的核心逻辑器件。
MRCD/MDB 通过双倍数据传输速率和时分数据复用,可以在标准速率下同时访问两个内存阵列,实现双倍带宽,第一代产品速率可到 8800MT/s。
这和 AI 推理的关系是,CPU host 数量增加,主机侧内存容量和内存带宽需求提高,高速 DDR5、MRDIMM/MCRDIMM、PCIe/CXL 互连的重要性自然提高。澜起还在 PCIe Retimer、CXL MXC 上布局。
公司 2025 年业绩说明里也提到,AI 服务器增长拉动 PCIe Retimer、PCIe Switch 需求,典型 8 卡 AI 服务器通常需要 2–4 个 PCIe Switch、8–16 个 Retimer,部分国内 8 卡 GPU 方案需要 24 个 Retimer。
澜起 2025 年确实已经体现出 AI 服务器和 DDR5 周期的业绩弹性。公司投资者关系材料显示,2025 年营收 54.56 亿元,同比增长 49.9%;互连类芯片收入 51.39 亿元,同比增长 53.4%;归母净利润 22.36 亿元,同比增长 58.4%。
所以澜起的题材不是空穴来风。它真正挂钩的是,CPU host 增加 → DDR5 内存模组增加/升级 → RCD、MRCD/MDB、SPD Hub、PMIC、TS 需求增加;AI 服务器复杂度提高 → PCIe Retimer/CXL 需求增加。
但也要注意,澜起不是CPU 配比提高这个题材的第一顺位受益者。第一顺位是自研 CPU 设计方、Arm IP、台积电、服务器 ODM/OEM、CSP 自身。
澜起属于二阶受益,但好处是对公司影响够大。相比台积电跟Arm,CPU配比增加的增量对他们庞大的业务来说业绩影响不是那么大。
但主机侧内存和互连配套,CPU配比提高给Rambus,Astera跟澜起带来收入增量是直接的,因为他们体量小。
其实CPU配比增加也能算在之前市场认为AI能给相关企业带来的增量里,不会因为CPU配比提高而业绩增长变大很多,这些公司本来就是在AI受益链条中,这次的题材让市场焦点又重回他们身上。所以美股从4月初就开始上涨。
聚辰股份逻辑有但比澜起弱,它主要是 SPD EEPROM、SPD Hub、TS、EEPROM/NOR 等。DDR5 内存模组确实需要 SPD、TS、PMIC 等配套芯片。
DDR5 内存模组除了搭载内存颗粒和接口芯片,还需要 SPD、TS、PMIC。
其中 SPD 是 DDR5 内存模组的通信中枢,内置 SPD EEPROM,用于存储内存模组信息和配置参数,并集成 I2C/I3C 总线集线器和高精度温度传感器。
所以聚辰和这个题材的连接是,AI 服务器 CPU host 和 DDR5 模组用量增加 → DDR5 SPD/TS 需求增加。
但聚辰的弹性和产业地位要弱于澜起。因为 SPD/TS 更偏模组配套芯片,价值量和技术壁垒通常不如 RCD、MRCD/MDB、PCIe Retimer、CXL 这类高速互连芯片。
聚辰 2025 年营收 12.21 亿元,同比增长 18.77%;归母净利润 3.64 亿元,同比增长 25.25%,DDR5 SPD 确实是增长驱动之一,但增长幅度和 AI 服务器核心链条的爆发性不能简单等同。
所以我认为,聚辰能挂上 DDR5 模组升级和服务器内存配套,但它不是 CPU 配比提升的核心受益标的,更偏题材延伸。
CPU配比提高这件事,我认为如果按全球产业链看,CPU 配比提高的受益顺序大概是: 第一层:自研 CPU – Arm 生态 / 台积电Foundry。
Google Axion、AWS Graviton、英伟达 Grace/Vera 这类 Arm 服务器 CPU 会直接受益。Arm IP、台积电先进制程/先进封装是更底层的受益者。
第二层:服务器主机侧内存和高速互连。
DDR5、MRDIMM/MCRDIMM、RCD、MRCD/MDB、SPD、PMIC、TS、PCIe Retimer、CXL、PCIe Switch 会受益。全球受惠的有Rambus跟Astera ,这两个票4月以来纷纷都翻倍了,A 股里澜起是这一层最清晰的标的,目前涨幅50%左右,聚辰是 DDR5 模组配套的延伸标的弱了不少。
第三层:服务器平台、主板、PCB、连接器、电源、散热、ODM/OEM。 CPU host 增加,不只是多一颗 CPU,而是更多内存通道、更多供电、更多 PCIe/CXL 链路、更复杂的板级设计和系统集成。
这会拉动服务器平台价值量,但 A 股多数公司要看是否真的进入海外 AI 服务器供应链,不能只靠概念。
第四层:中国本土 AI 服务器生态。
如果单单看国内 AI 服务器,由于英伟达受限、国产 GPU/ASIC 体系发展,海光、鲲鹏、飞腾、龙芯、寒武纪等会被市场拿来映射。
但这里要分清楚,很多公司不是因为全球 TPU/GB200 这条链受益,而是因为国内替代和国产 AI 服务器建设受益。逻辑不一样。
更重要的是国内AI的CPU还有个致命的问题,那就是可以买到英特尔至强CPU,为何要用国产的?
比如寒武纪配套字节服务器的CPU正是至强,昆仑芯也是,国内有能力的自研AI GPU跟CPU的只有海思跟平头哥。
如此一来海光,飞腾,龙芯是否是利好?首先海光必然是搭配他的深算GPGPU一起出货,我想很少人会单独买他的CPU来配AI 服务器,龙芯跟飞腾也类似,但这些国产CPU都要先跟英特尔跟AMD竞争,大部分市场还是由美系垄断。
国产CPU厂家在配比提高这件事上当然也是利好,但落到真正业绩上的可能不会有想像中得多。
结论:
推理提升 CPU/host 侧用量是确定方向,但不是简单利好传统 x86 CPU。
它真正反映的是 AI 数据中心从单颗加速器竞争,进入 rack/system 级系统效率竞争。
A 股里澜起的挂钩度相对更高,至少美股的相关标的短期都翻倍了,它对应 DDR5 内存接口、MRDIMM/MCRDIMM、PCIe Retimer、CXL。
整体来说这个题材可以炒,但要分清一阶受益和二阶映射,不能把 CPU 配比提高直接等同于所有 CPU 或存储股都受益。
另外这题材美股比A股反应的更快更多,如果美股相关标的涨幅已经充分price in,股价出现反转是否对带崩A股的标的值得投资者加强注意。
以上为知识星球会员同学的提问与解答,类似解答星球有数百道,涉及A股半导体大部分票。不添油加醋,不拔高也不否定,用最精准的产业逻辑让会员获得客观的投资判断依据。
扫文章末尾优惠券二维码即可加入知识星球,付费加入后有三天试用期,不满意者三天内平台直接申请无条件退款。

赵工
13488683602
zhaojh@kw.beijing.gov.cn
投稿/推广/入群/ 转载
夜雨聆风