大家好,我是小卢,一个码了十年代码,心里有话就忍不住想说道说道的程序员。
2025年到2026年,韩国股市涨疯了。KOSPI指数从2400点冲破6700点,涨幅近180%,总市值接连超过德国、法国和英国。仅三星和SK海力士两家公司,一个季度就赚了近600亿美元,这个数字比印度所有上市公司同期的利润加起来还要多。什么生意这么赚钱?答案只有三个字母:HBM。
HBM的全称是"高带宽存储器",通俗点说,就是一种专门给AI芯片当"贴身助手"的超高速内存。新闻里天天提到的英伟达天价AI芯片,离了它根本跑不起来。而全球HBM市场,三星和SK海力士两家韩国公司就拿走了大约八成份额。这件事揭开了一个被大多数人忽视的真相:让AI"记住"东西的存储芯片,才是当下最稀缺、最赚钱、也最卡脖子的环节。如果把AI比作一个正在备考的超级学霸,那存储芯片就是他的书桌、课本和笔——桌子够不够大,翻书够不够快,直接决定了这个学霸能考多少分。
要理解AI为什么这么依赖存储,得先搞清楚存储芯片到底是什么。你买手机或电脑时一定见过两个参数:内存和存储空间,比如"16GB内存加512GB存储"。这两个东西对应着芯片世界的两大门派。第一个叫DRAM,也就是我们常说的内存,它的特点是速度极快,但一断电就忘光,相当于大脑的短期记忆,正在思考的事放在这里,想完就清空。你可以把它理解成一张草稿纸,用来临时演算,速度至上。第二个叫NAND闪存,也就是常说的硬盘或存储空间,断电了东西还在,你的照片、文件都存在这里面,相当于大脑的长期记忆。它像一座图书馆,容量至上,用来永久保存。
过去几十年,这两大门派各司其职,相安无事。但AI大模型的出现,把一切都搅乱了。训练一个大模型,本质上是让机器"读"海量的数据,可能是几万亿个单词、几十亿张图片,然后从中找出规律。这件事对存储的需求,不是多一点,而是直接拉满。
首先,它需要一张巨大的"书桌"。大模型的参数,也就是它的"脑细胞"数量,动辄几千亿甚至上万亿,加上正在处理的数据,必须全部放在内存里。为什么?因为GPU算得实在太快了,如果数据要从硬盘慢慢调取,GPU就得干等着。一块英伟达H100芯片自带80GB内存,但根本不够用,往往需要几百块、几千块芯片连在一起协同工作。其次,光桌子大还不够,翻书速度也得到极致。GPU一秒钟能处理的数据量可能是TB级别,如果内存传输速度跟不上,几十万一块的芯片就这么白白闲着,业内人士把这叫做"内存墙"——算力再强,数据喂不进去,一切白搭。再者,训练中还得频繁"存档",把模型当前的状态保存下来,万一断电了能从这里恢复,不至于从头再来。一次大模型训练可能花几千万美元,存档慢了就是在烧钱。
结论很明确:既要容量最大,又要速度最快,传统的内存和闪存都不够用了。于是,HBM登场了。
HBM的原理并不难理解。传统内存芯片是平铺在电路板上的,就像一排平房,数据在平房之间跑来跑去,路远,速度就慢,还费电。HBM的做法是不盖平房了,直接盖摩天大楼。它把多层DRAM芯片像千层酥一样垂直堆叠起来,然后用一种叫"硅通孔"的技术从中间打穿,让数据在垂直方向上直接传输。这样一来,数据跑的距离从"小镇东头到西头"变成了"楼上到楼下",速度自然暴涨,功耗还降下来了。更关键的是,HBM不是插在主板上的,而是直接和GPU封装在一起,紧紧贴着算力核心。这就相当于把草稿纸直接摊在算盘旁边,算完一步马上写,写完马上算,中间几乎没有等待时间。现在你能理解英伟达为什么离不开它了,AI芯片的天价,有一大半是花在了这颗"贴身内存"上。
目前HBM的王者是SK海力士,它控制着全球大约六成份额,最先进的型号几乎被英伟达独家包圆。三星正在后面猛追,而美国的美光情况就不太妙了。美光的市场份额只有个位数,更麻烦的是,它在下一代HBM上选错了技术路线,导致产品出现散热问题,被英伟达暂时踢出了下一代AI芯片的供应商名单。内存领域的竞争已经进入了"合纵连横"的时代,SK海力士选择和台积电深度绑定,三星靠的是自己强大的内部产业链,而美光坚持单打独斗,明显落后了。
说到这里,很多人自然会问:那我们中国在这个领域是什么水平?实话说,差距还是相当大的,但"差距大"不等于"没在追"。
在传统存储领域,中国已经打破了从零到一的困局。DRAM内存方面,代表企业是合肥长鑫,它已经成功量产了DDR5,也就是目前主流电脑用的最新一代内存,技术上算是站住了脚,但市场份额还很小,量产规模远远比不过韩国双雄。NAND闪存方面,武汉长江存储的进展更好一些。它绕过了一些专利壁垒,自研了名为"晶栈"的架构,目前能生产232层以上的闪存芯片,技术差距从过去的五六年追到了大概两代左右,部分国产手机和电脑里已经在用了。
但回到最关键的HBM领域,情况就要严峻得多。HBM需要先在普通DRAM上做到顶尖水平,还要掌握先进的芯片堆叠和封装技术,这两样恰恰都是中国半导体产业的短板。目前国内还没有企业能够真正量产HBM。更麻烦的是,美国在2023年更新了对华芯片出口管制,直接限制先进HBM卖到中国。这意味着什么呢?打个比方,就算华为设计出了一款能对标英伟达的AI芯片,组装的时候也买不到最好的"轮胎",而缺了这个轮胎,比赛就先输了一半。当然,国内已经意识到了问题的紧迫性。据信,长鑫正在和封装企业合作研发HBM,华为也在自研相关技术,但业内普遍预计,追到可用的水平,至少还需要三到五年。
HBM虽然是现在聚光灯下的明星,但AI对存储的改变远不止于此。AI不光要训练,训练完了还要拿去真正干活,这叫"推理"。你用AI搜索、让AI写文案,这些实时产生的数据处理需求同样需要大量内存。全球每年产生的数据量以超过20%的速度增长,这些数据都是要落在NAND闪存里的,不能扔,因为模型需要反复调优、重新训练。业界还在探索新的存储形态,比如SK海力士在研究一种叫"HBF"的高速闪存,想做一种比普通硬盘快很多、又比HBM便宜和容量大的中间形态,还有人打起了"存算一体"的主意,让存储芯片本身也能做一些简单运算,数据不用来回搬,功耗和延迟都会大幅下降。这些想法能走多远还不好说,但它们说明了一件事:存储的进化才刚刚开始。
回到开头那个画面。韩国股市因为存储芯片而暴涨,与其说是一个投资故事,不如说是一个信号。它标志着在全球AI竞赛中,存储已经从"后勤保障"变成了"前锋主力"。过去我们讨论AI,总是先说算法多牛、算力多强,但韩国股市用真金白银告诉世界:算力决定跑多远,存储决定跑不跑得起来。没有存储,算力就是饿着肚子的猛兽,空有一身肌肉却使不出力气。对中国来说,追赶GPU固然重要,但同时把存储这个底座打牢同样紧迫。好在我们已经有了一批扛旗的企业,虽然离山顶还有很远的路,但至少已经在山脚向上攀登了。下次你惊叹于AI的聪慧时,不妨想一想那些在芯片内部飞速运转、默默无闻的存储单元,它们不参与思考,但没有它们,思考根本无从发生。
夜雨聆风