一石激起千层浪。
在刚刚过去的AMD财报沟通会上,CEO苏姿丰(Lisa Su)抛出了一个让整个半导体行业为之一振的判断——在未来的AI服务器中,CPU与GPU的配置比例将向1:1演进。
很多人第一反应是:“什么?CPU的需求要和GPU持平了?”
其实,苏妈所说的“持平”,并非指PC或服务器的出货总量,而是指AI服务器内部的一种结构性变化:过去一台AI服务器可能只配1颗CPU、4颗甚至8颗GPU;而未来,CPU与GPU的数量将趋向于一对一搭档。
这背后,是一场由智能体AI引爆的算力革命。
---
01 CPU,从“管家”到“总指挥”
在过去几年的大模型训练热潮中,GPU是绝对的主角。CPU的角色被简单归纳为“开个机、传个数据”——像个不起眼的管家。
但在智能体AI时代,情况彻底变了。
所谓智能体AI,指的是能够自主完成多步骤任务的AI——比如帮你订机票、比价、写邮件、操作软件。这类AI在工作时,需要频繁地做推理、决策、调用工具、协调多个子任务。而这些复杂的逻辑判断和任务编排,恰恰是CPU的强项。
苏姿丰的团队预测:未来每个用户可能同时拥有5到10个AI Agent在云端运行。 每个Agent都需要独立的CPU资源来进行“思考”。于是,AI服务器中CPU的消耗量开始爆炸式增长。
一个直观的变化是:服务器厂商正在越来越多地设计1 CPU : 1 GPU的架构方案。这在两年前几乎是不可想象的——当时的主流还是1:4甚至1:8。
02 这不是“替代”,而是“合力”
需要特别强调的是,CPU比例的提升并不意味着GPU被边缘化。
恰恰相反,GPU仍然是AI算力的“心脏”,负责海量的并行计算。CPU则升级为“大脑”,负责指挥调度。两者各司其职,形成真正的异构计算合力。
AMD因此大幅上修了服务器CPU市场的增长预期——从原来的18%年复合增长率,直接翻倍到超过35%;并将2030年的市场容量预期从600亿美元上调至1200亿美元。
无独有偶,英特尔新任CEO陈立武也表达过类似的观点。这说明,CPU在AI时代的价值重估,已是行业共识。
---
03 每一颗CPU背后,是一条产业链的跃迁
当AI服务器中的CPU数量翻倍增长,受益的绝不仅仅是AMD或英特尔自己。
以最基础的封装基板为例。每一颗高性能CPU(尤其是用于AI服务器的)都需要搭载一块高端FC-BGA封装基板,相当于芯片的“地基”和“骨架”。CPU需求翻倍,封装基板的需求自然水涨船高。
而封装基板只是冰山一角。往上梳理:
· 制造CPU需要高纯度硅片、光刻胶、电子特气、靶材等数百种半导体材料;
· 需要先进封测技术将CPU与GPU、HBM内存整合在一起;
· 需要高多层PCB和高速CCL来承载这些芯片之间的数据洪流;
· 需要液冷散热系统来应对更高的功耗密度……
可以说,每一个CPU的“上岗”,都在拉动一整条供应链的景气度。
对于国内产业而言,这是一个难得的追赶窗口。尽管全球封装基板市场目前仍由中国台湾(欣兴、南亚等)、日本(揖斐电、新光电气)、韩国(三星电机)主导,合计份额超过80%,但国内厂商如深南电路、兴森科技等正在加速扩产。AI带来的增量需求,给后来者提供了“弯道超车”的机遇。
04 理性的乐观
当然,我们也需要保持清醒。
1:1的配比演进是一个趋势方向,而非明天就会普及的标准。不同AI应用场景对CPU/GPU比例的需求不同:训练密集型任务可能仍然需要高配比GPU,而推理和智能体任务则更向1:1靠拢。
此外,高性能CPU本身的设计和制造门槛极高。无论是AMD的EPYC还是英特尔的至强,其技术壁垒不亚于GPU。国内CPU厂商(如海光、龙芯等)仍需在性能、生态、产能上持续突破。
但方向已经明确:AI不再是GPU的独角戏,CPU正在获得它应有的戏份。
当苏姿丰说出“1:1”这个数字时,她实际上描绘了一幅更均衡、更复杂的AI计算图景。在这幅图景里,CPU和GPU像一对配合默契的搭档,共同支撑起未来数以万亿计的AI智能体。
而这,才是整个半导体产业链真正的星辰大海。
---
本文不构成任何投资建议。市场有风险,决策需谨慎。
夜雨聆风