AI存储大变革!DDR5需求暴涨,HBF接棒HBM成新风口,超级周期延至2027年
免责声明
本文所转载内容,均来自于网络,并不代表本人观点、立场,本人也不为其真实性负责,只为传播网络信息为目的,如有异议请及时联系,本人将予以删除。所有信息仅供在新媒体背景下的研究观点交流,普通个人投资者有可能由于获得的信息不完整,缺乏对研究观点或报告的解读能力,可能会得出有差异的结论。
序文:AI产业从训练向推理转型,正重塑存储芯片格局。AI CPU崛起推高DDR5需求,使存储“超级周期”有望延续至2027年;与此同时,图灵奖得主看好的HBF(高带宽闪存)异军突起,或将成为AI推理时代的下一个核心瓶颈与新风口,存储行业迎来双重变革。
AI CPU逆袭成主角,DDR5需求飙升引供需失衡
AI推理架构转型颠覆了存储芯片需求格局,原本处于辅助地位的CPU,如今跃升为AI系统“核心协调者”,直接带动DDR5内存需求爆发。英特尔等厂商推出搭载400GB内存的AI CPU后,服务器端DDR5需求激增,市场供需失衡进一步加剧。
这一变化已体现在现货价格上:据韩国证券数据,4月DDR5(16GB)现货价格环比上涨2.8%,而DDR4同期下跌16%,两者价差持续扩大,凸显需求向新一代内存标准迁移的趋势。存储行业业内人士称,当前DRAM市场供给缺口约10个百分点,结合当前市场供需情况,供需失衡持续时间将超预期。
角色重塑+配置升级,CPU驱动内存需求倍增
DDR5需求扩张的核心,是AI行业从训练向推理的重心转移。过去AI数据中心以GPU为核心,服务器多为8块GPU搭配1块CPU,聚焦并行训练;而推理场景复杂化后,CPU已从辅助处理器升级为“AI协调器”。
作为“AI协调器”,CPU需调度多智能体AI系统、统筹工作流,对“上下文记忆”的需求催生了大容量内存刚需。英特尔高管透露,AI推理中CPU与GPU算力配比已从1:8演变为1:4,且正向1:1收窄,AI CPU的DRAM配置也提升至300-400GB,较传统CPU高出最多四倍。
GPU+CPU双重拉动,DDR5供需缺口持续扩大
GPU与CPU的双重需求,让DDR5供需缺口持续扩大。GPU侧,英伟达下一代AI芯片“Vera Rubin”搭载288GB HBM,AMD MI400内存达432GB,谷歌TPU 8i也配备288GB HBM,高端算力芯片对内存容量要求持续突破。
与HBM仅少数厂商供应不同,DDR5需求扩张直接冲击通用DRAM市场。英特尔、AMD的AI CPU大规模采用400GB DDR5后,供需失衡将进一步加剧。而三星、SK海力士的HBM产能已被锁定,通用DDR5有效产能有限,难以快速响应增量需求。
产能承压,存储“超级周期”预期上修至2027年
供给端的制约让DRAM短缺难以缓解。三星、SK海力士的产能扩张受晶圆厂建设、良率爬坡限制,短期内无法快速提升,而GPU与CPU的需求仍在叠加,进一步加大供给压力。
DRAM行业分析人士指出,当前DRAM供给短缺约10个百分点,商品级DRAM价格较最低点翻倍,推动存储厂商盈利创新高。随着双重需求释放,据相关行业分析,市场将存储“超级周期”预期从2026年上修至2027年,行业景气周期将更持久。
图灵奖得主发声:HBF或成HBM之后的下一个瓶颈
当市场聚焦HBM供给竞争时,图灵奖得主、UC Berkeley教授David Patterson抛出新观点:AI从训练走向大规模推理后,下一个供给瓶颈或将是HBF(高带宽闪存)。这位RISC架构核心设计者于4月30日明确表示,HBF有望成为需求激增的关键内存技术。
David Patterson表示,尽管HBF仍有技术挑战,但SK海力士、闪迪等企业推动的HBF,具备“低功耗、大容量”优势,未来AI系统的核心将是数据的存储、调度与供应,内存竞争焦点将从“速度”转向“容量+效率”。
解密HBF:不是取代HBM,而是分工协作
HBF与HBM并非替代关系,而是互补分工,核心差异在底层内存材料。HBM由DRAM垂直堆叠而成,主打高带宽,负责“快速喂数据给运算单元”,解决AI运算的“速度”问题。
HBF则由NAND Flash垂直堆叠,核心优势是低成本、低功耗、大容量,解决AI系统的“容量”问题。两者协同构建内存体系:HBM负责实时高速数据交换,HBF承担中间数据、上下文数据的存储。“HBM之父”金正浩比喻,二者如同书房与图书馆,各有侧重。
AI推理爆发,HBF需求正式浮出水面
HBF在2026年受关注,核心是AI市场重心转向推理。AI训练是让模型学习参数,而推理是模型实际执行任务、记住上下文的过程,会产生海量需反复读取更新的数据。
这些数据若全部存入HBM,成本与容量均不现实——HBM适合高速即时数据处理,不适合存储海量上下文数据。随着AI Agent、长上下文模型普及,系统需要更大的高速数据池,这正是HBF被看好的核心原因。
巨头推动标准化,2038年HBF需求或超越HBM
SK海力士与闪迪已率先推动HBF标准化与商业化:2025年8月双方签署备忘录,2026年2月联合启动HBF规格标准化联盟,依托OCP框架加速标准制定,抢占赛道先机。
闪迪计划2026年下半年推出HBF原型产品,年底启动试点生产线,2027年实现商业化(较原计划提前半年)。金正浩预测,结合AI推理市场发展趋势,2038年HBF需求或将超越HBM,若能突破技术瓶颈,将成为AI数据中心关键内存层。
AI竞赛升级:从“算得快”到“记得住、调得动”
过去AI半导体的焦点的是GPU、先进制程与HBM,HBM甚至成为判断存储厂商竞争力的核心指标。但David Patterson提醒,AI基础设施瓶颈日趋复杂,竞赛已从“算得快”转向“记得住、调得动”。
AI训练阶段重点是用高带宽内存喂饱GPU;进入大规模推理阶段,核心是解决上下文维持、低成本存储、数据高效流动等问题。未来AI内存竞赛将是内存阶层重组,HBF将填补传统存储与高带宽存储器的空白,实现容量、功耗与成本的平衡。
万水千山总是情,打赏一元行不行?
夜雨聆风