乐于分享
好东西不私藏

AI存储重构:HBM锁算力上限,NAND定数据边界

AI存储重构:HBM锁算力上限,NAND定数据边界

 

市场对AI内存的判断出现了根本性偏差——过度聚焦DRAM、低估NAND。AI正从”算力驱动”转向”内存驱动”,而真正的瓶颈不在通用DRAM。HBM决定单点算力上限,NAND决定系统大规模扩展边界。两者协同才是AI存储体系的核心,非此即彼的框架已然失效。

 

   HBM与NAND:AI存储的两道闸门
 

 

AI视频生成模型的资源需求,已经把内存结构清晰分化。

单次推理中,HBM(GPU显存)占据约280GB,DRAM仅为20-90GB,主要负责系统缓存与辅助任务。HBM已是AI推理的主战场,通用DRAM退居配角。

在数据中心推理侧,每个节点需配备约140GB的NAND,用于加载模型与系统运行。内容侧更为惊人——单个30秒4K视频体积达150-268MB,而AI视频生成的特点是多版本、长尾化、海量生产。仅以全球短视频日播放量1万亿次推算,即使1%转为AI生成,其存储需求也是天量。

NVIDIA推出单DPU支持150TB大容量NAND平台,并非偶然,而是产业向存储重构方向推进的明确信号。

 

   产业逻辑的根本转变
 

 

Sora、DiT等AI视频生成模型的token规模冲至400万级,模型参数超过500亿。当规模如此膨胀,计算本身不再是瓶颈,数据搬运与存储反而成为核心矛盾。

AI正从Compute-bound转向Memory-bound,这一底层转变从根本上改变了内存需求结构。

市场过去认为数据中心需求提升必然利好DRAM,但忽略两个关键事实:

其一,AI推理真正消耗的是高带宽内存HBM,而非通用DRM;其二,AI系统的完整运行依赖大量存储支撑——模型缓存、数据交换、内容存储,这些全部指向NAND。

HBM定义算力上限,没有足够的高带宽内存,大模型无法高效运行;NAND定义数据边界,没有足够的存储容量,AI生成的规模便无法扩展。两者是互补关系,而非替代。

 

   超级周期的三大观测点
 

 

AI视频生成从离线走向实时,是引爆内存超级周期的最大变量。实时生成意味着内容无限供给、交互大幅增强、广告嵌入动态生成,对数据量的拉动将是数量级跃升。

核心观测点有三个:

HBM产能扩张进度。 这直接决定了单节点的算力天花板。目前HBM产能仍高度集中于少数几家IDM厂商,扩产节奏是产业链最关键的瓶颈。

NAND企业级平台落地速度。 特别是企业级SSD与大容量DPU存储平台的渗透率。NVIDIA已经用实际行动表态,这个方向没有悬念,节奏取决于产能分配。

AI视频模型的推理效率与参数规模变化。 这直接影响单位内存与存储需求——参数继续膨胀,则HBM和NAND同步受益;效率大幅优化,则需求增量需要重新评估。

如果以上三点形成共振,AI内存体系将进入新一轮硬件升级周期,而非简单的周期波动。

 

   NAND的价值正在被重新定义
 

 

AI时代的内存竞争,不是DRAM与NAND的零和博弈,而是HBM与NAND的协同分工。HBM锁住算力上限,NAND定住数据边界。

市场当前的共识在DRAM端过度拥挤,而对NAND在AI存储体系中的核心地位严重低估。存储体系重构是AI基础设施建设的下半场,这条线索值得持续跟踪。

本文仅基于公开信息与产业逻辑进行客观分析,不构成任何投资建议,不预判股价走势,不推荐任何标的。市场有风险,投资需谨慎,所有投资决策请独立判断、自行承担风险。

 

关注「鑫观点」看更多深度分析