全球AI大基建
美股今年涨得最猛的,基本上都是AI卖铲子逻辑,堪称AI大基建时代。
存储的代表是,美光、三星、SK海力士、闪迪、西部数据
AI基建在解决“算得动、传得动、存得下、用得起”的问题
这部分是AI的发动机,也是AI需求爆炸后最受益的主线,GPU成为最紧缺的资源。
训练大模型是通过大量矩阵计算,把“数据 → 模型能力”转化出来,训练是最吃算力,需要NV卡、需要时间、需要源数据,训练成本很高。
当模型成型后,将模型上线给用户去使用,例如大家用ChatGPT回答问题、用AI Agent自动执行任务,用户越多,算力消耗越大。
AI计算方式极度依赖并行计算,传统CPU是串行逻辑,GPU是并行逻辑,非常适合AI的矩阵算法。再叠加多模态(图像/视频)和Agent(自动执行任务)的需求,市场对算力的需求是指数级增长。
结论是供给端已经订单拉满,仍然无法满足市场的需求,主要受制环节是:先进制程、先进封装(CoWos)
在这部分,有我们熟知的英伟达,牢牢掌握了GPU,同时也有谷歌在TPU发力,最近以英特尔和AMD为代表的CPU也有缺货提价的故事。还有台积电这样的巨无霸代工厂。
顺便说一下,目前真正厉害的大模型公司,主要是OpenAI(ChatGPT)、Anthropic(Claude)、Google(Gemini),尤其是前两个公司,因为没上市,市场买不到大模型公司。
而这个现实就对应了,资金在抱团炒作在港股上市的minimax和智谱。
有了大量GPU之后,GPU之间要不停交换海量数据。不止是文本,还有图片、视频、多模态等等。
而光模块就是把电信号转换为光信号,高速传输后,再变回电信号。
“你相信光吗?”这是A股市场的光模块公司股价暴涨、业绩持续超预期后的一个段子,A股的中际旭创、新易盛等公司为代表,受益于海外大厂的大额订单和海量需求。
叠加自身光模块带宽升级(100G → 400G → 800G → 1.6T),在算力日益昂贵的时代里,光模块成为了这个时候的舞台主角。
这部分理解起来更直观了,因为大家或许没接触过GPU和光模块,但手机存储是多大,总有直观的感受。
1、DRAM / HBM,简单来说就是闪存和超高速闪存。当你使用AI模型时,数据会加载到DRAM里,读写速度极快,代表公司是美光、Samsung、SK海力士。
2、NAND,就是存储空间,代表公司是西部数据、闪迪。
存储需求爆发,各厂的扩产意愿很低,涨价已实现,且传导到了消费电子行业,带动手机提价。
在解决两个问题。在哪跑算力——数据中心,有没有电力支撑——能源。
数据中心就是我们常说的云厂商,亚马逊的AWS、微软的Azure、Google Cloud等等。
假设你作为这个数据中心的主管,解决电力供应问题和散热问题,关乎到能不能正常运转。
1.你可能选择核电,你会看核能技术与燃料的公司,包括CEG、SMR、BWXT、UEC、OKLO、CCJ、UUUU、NNE、LEU;
2.你还可能选择燃气轮机,用串组发电机来保障,你会看的公司包括GEV、CAT(卡特彼勒)、西门子、三菱重工等,这里又映射到了我们之前说的A股的潍柴动力、万泽、应流、联德等公司的海外订单。
3.你绕不开维谛技术(VRT)这家公司,他的主业就是给AI数据中心提供电力和散热的技术设施。
上述逻辑是粗浅的归类,真实的商业世界里,一家公司不会只做一个类别,还有各种业务的交叉和持股的交叉。
AI需求是真实存在的,巴菲特看空市场的赌博行为也是真实存在的。