乐于分享
好东西不私藏

AI应用将逐步强于AI算力

AI应用将逐步强于AI算力

当Alphabet股价单日飙升逾10%、市值一日内增加逾4000亿美元,而英伟达股价跳水近5%、市值相继跌破5万亿美元和4.8万亿美元两道关口时,这场发生在2026年4月底的冰火两重天,透露出的绝非简单的个股涨跌,而是一次对AI产业底层估值逻辑的深刻修正。从推理数据量首次超越训练数据量的宏观拐点,到科技巨头财报中自研芯片业务的大规模披露,市场正在重新回答一个根本性的问题:在AI的价值链条上,到底哪一段更值得拥有溢价?是供给侧的通用芯片,还是将AI深度嵌入业务的闭环应用?答案正变得越来越清晰。

谷歌这一次的爆发,绝非偶然。一季度营收1099亿美元、同比增长22%,净利润飙升81%,谷歌云单季营收首次突破200亿美元、同比增速高达63%,企业级AI解决方案首次成为云业务的主要增长驱动力。这些数字的背后,是一条全栈AI路线的持续兑现。谷歌花了十年时间打磨TPU——2026年4月发布第八代TPU,首度将训练和推理需求拆分至两款独立芯片(TPU 8t和TPU 8i),每瓦性能翻倍,在同等成本下将推理效率提升80%,目标直指降低Agent运行成本。Gemini每分钟处理Token数已突破160亿,较上季度增长60%,付费月活环比增长40%。更值得关注的是,Alphabet已在财报中证实TPU向外部客户直接销售,从云端租用延展至硬件销售领域,正式从英伟达的客户变身为竞争对手。AI不再是一张烧钱的长期票,而是一条正在产生真实现金流的盈利线——搜索广告增长19%验证了AI拓展而非蚕食搜索边界的判断,云业务63%的增速和超过4600亿美元的积压订单锁仓,则是AI商业化最扎实的注脚。

另一边,英伟达的处境则呈现出一种悖论式的脆弱。按常理,四家超大规模云计算商合计预计在2026年投入高达7250亿美元的AI基础设施,手握加速芯片市场约九成份额的英伟达理应成为最大受益者。但市场完全反向定价的背后,是客户集体“叛变”的结构性信号。Alphabet证实向外部客户直接销售自研TPU;亚马逊CEO Andy Jassy表示自研芯片业务年化营收已突破200亿美元,同比增长三位数,其中核心产品为自研Trainium系列,Anthropic最新协议更是承诺使用AWS自研芯片十年,投资与采购合计超过千亿美元。微软已推出第二代自研AI芯片Maia 200并与Anthropic达成排他性合作;Meta与博通的MTIA合作延长至2029年,初步承诺部署高达1GW规模的MTIA芯片。当最优质的客户都在自研替代品,通用芯片的溢价基准正在松动。更关键的是,推理取代训练成为AI算力增长的主引擎——IDC预计到2028年推理工作负载占比将达73%,2026年推理计算需求已达到训练需求的4到5倍,推理算力租赁价格半年涨幅近40%。而推理场景对芯片能效和成本敏感度更高,恰恰是博通定制ASIC、谷歌TPU等自研专用芯片大显身手的主场。Bernstein Research分析师Stacy Rasgon提出的观点值得深思:AI智能体兴起令计算需求爆发式增长,制约行业的关键不是谁输谁赢,而是整体供给不足,所有具备可信产能的芯片制造商均能满销。这一逻辑对英伟达是安慰,却无法回避一个事实:利润蛋糕正在分流,高利润率能否持续,取决于英伟达能否在推理时代继续维持对自研芯片的压倒性优势。财报前OpenAI增长不及预期的报告加深了市场对AI投资效率的担忧,而Rubin系列出货递延的风险更让部分投资者选择提前离场观察。

这种分野,本质上是一场AI价值创造方式的范式转变。训练时代,英伟达GPU凭借CUDA生态和通用性优势,收取高昂溢价;推理时代,自研芯片能从能效角度精准优化、垂直整合TPU+模型+云+Agent的全链条,在TCO上形成碾压性优势。华尔街和A股的投资者素来偏爱“平台公司+垂直整合”,因为一旦集成与被集成者的利润分配关系逆转,利润率易扩张,天花板更高。从这个角度看,谷歌的崛起和英伟达的困顿,都是AI价值权重从通用算力向端到端应用层迁移的自然映射。投资逻辑正在随之调整:昔日押注供给的赛道依旧是增长的刚需,但给“卖铲人”的估值将更精细地审视客户粘性;而拥有闭环商业模式的平台选手,正获得更慷慨的溢价。这不是一场谁替代谁的决斗,而是AI价值地图的一次重绘——在那张地图上,应用比算力更靠近终点,而终点才决定溢价。

友情提醒:投资有风险,决策需谨慎,本内容不对您构成任何投资与决策建议。