OpenAI豪掷200亿美元"炸"英伟达!芯片大战背后,A股下一个暴富机会来了?
发布时间:2026年4月19日 | 来源:宇与辉财经整理
昨天(4月17日),科技圈扔出一颗深水炸弹:OpenAI宣布与AI芯片公司Cerebras签署战略协议,未来三年投入超过200亿美元,理想情况高达300亿美元,同时获得Cerebras近10%的认股权证。
这不是一笔普通的商业采购合同。这是一次科技巨头对"芯片垄断"的公开宣战。
群里马上有朋友问我:这跟A股有啥关系?今天我们就来聊聊——这背后,可能藏着一个被很多人忽视的大机会。
一、200亿美元背后:OpenAI在"赌"什么?
先说说这笔交易的来龙去脉。
OpenAI是英伟达GPU最大的客户之一——没有之一。它每年向英伟达采购的芯片金额高达数十亿美元,支撑着ChatGPT、GPT-5等所有产品的训练和推理。但问题来了:太贵了。
黄仁勋的GPU性能固然领先,但稀缺性带来的定价权同样惊人。训练一个大模型,光芯片电费就是天文数字。OpenAI CEO奥特曼(Sam Altman)曾多次公开表示,AI发展的核心瓶颈不是算法,是电力和算力成本。
根据协议条款,OpenAI未来三年总支出最高可达300亿美元,届时将获得Cerebras约10%的认股权证。同时,OpenAI还将向Cerebras提供约10亿美元专项资金,用于支持Cerebras自研数据中心的建设。
换句话说,OpenAI不只是要买芯片,还要绑定这个芯片公司成为股东——它在赌,Cerebras能帮它绕开英伟达的定价霸权。
二、Cerebras是谁?一块"餐盘大"的芯片
提到芯片,大多数人脑子里是英伟达A100、H100那种信用卡大小的GPU板卡。但Cerebras走的是一条完全不同的路——
它把一整块12英寸晶圆做成了一颗芯片。
Cerebras的第三代AI处理器WSE-3(Wafer Scale Engine 3),集成了超过4万亿个晶体管,内置40GB片上SRAM(静态随机存储器),拥有85万个计算核心,内存带宽达到惊人的20PB/s。
做个对比:传统GPU集群训练一个大模型,需要成百上千张芯片通过高速互联协同工作,延迟高、功耗大、调度复杂。而CerebrasWSE-3凭借巨大的片上SRAM和超高带宽,可以把整个大模型"装进"一颗芯片里训练——训练时间减少30%,能耗降低25%。
这不是"更便宜",而是"完全不同量级的工程路线"。
早在今年4月初,OpenAI就发布了基于WSE-3芯片运行的轻量级编程模型GPT-5.3-Codex-Spark,专门针对"快速推理"场景优化。Cerebras CEO安德鲁·费尔德曼(Andrew Feldman)当时说:"我们正在证明,不是只有英伟达GPU才能跑最好的AI。"
三、算力格局大变:所有人都在"去英伟达化"
OpenAI只是这场"芯片去美化"大戏中的一个角色。事实上,全球所有科技巨头都在悄悄行动。
谷歌自研TPU已经是公开的秘密。2026年,谷歌推出TPU v5e,专门面向中小企业推理场景。同时,谷歌与芯片设计服务商Marvell展开谈判,开发面向大语言模型推理优化的专用LPU芯片。
Meta的MTIA v2推理芯片也在迭代。官方数据显示,相比第一代,推理成本降低了50%。
亚马逊的Trainium芯片已经部署超过140万片,安德thropic的Claude系统使用了超过100万片Trainium 2芯片。亚马逊甚至专门为AI训练设计了一款代号"andes"的超级计算机。
苹果则在4月初悄悄发布了自家AI芯片M5系列,内置38核神经网络引擎,专门驱动端侧AI任务。
英伟达的GPU市占率仍然超过80%,短期内格局不会根本改变。但当谷歌、Meta、亚马逊、OpenAI全部开始"两条腿走路"——既用英伟达GPU,又扶植自研或第三方替代方案——这本身就说明:英伟达的垄断红利,已经触顶。
36氪在一篇分析中写道:"以OpenAI为首的AI巨头对算力的需求呈指数级增长,以及对成本控制的日益迫切,这种单极格局正在被打破。"
四、英伟达反击:Blackwell架构封神
当然,英伟达不会坐以待毙。
2026年GTC大会(GPU技术大会),英伟达发布了Blackwell架构,这是继Hopper之后的新一代旗舰AI芯片架构,以著名统计学家大卫·布莱克威尔(David Blackwell)命名。核心升级包括:
Blackwell架构四大核心升级:
1. 双芯合一极致算力密度,FP4精度革新
2. NVLink 5.0高速互联突破
3. AI Agent全栈生态
4. 多智能体协作与企业级落地
黄仁勋甚至豪言:未来十年,AI算力将提升100万倍。话音刚落,就有分析师反驳:支撑这100万倍的,可能不只是一家英伟达。
有意思的是,黄仁勋近期还公开"力挺"中国芯片:"中国没有AI芯片纯属无稽之谈,只要他们愿意,可以无限堆算力。"这被外界解读为:一方面是展示自信,另一方面也暗示——芯片"禁令"可能正在让英伟达失去一个重要市场。
五、Anthropic多云策略:大厂都在"不把鸡蛋放一个篮子"
这场算力多元化浪潮中,最有意思的案例是Anthropic。
Anthropic的Claude系列大模型,同时运行在谷歌TPU、亚马逊Trainium和英伟达GPU上——三种平台分别承担训练、推理与研究等专门工作负载。这种"多云策略"正在成为行业标准。
就在4月15日,Anthropic还与谷歌及博通签署了一份长期协议。博通正是谷歌TPU的核心设计支持方。谷歌云CEO托马斯·库里安(Thomas Kurian)表示,Anthropic选择增加TPU使用量,是基于"性价比与效率的综合考量"。
这条信息值得每个A股投资者关注:当全球最顶尖的AI公司都在评估"英伟达之外的选择",当Anthropic这样体量的公司开始大量使用TPU和Trainium,这意味着——算力芯片的"去美化运动"已经从口号变成了实质性的供应链调整,而这个调整的受益方,是那些拥有替代技术路线的芯片公司。
六、对A股投资者意味着什么?
说了这么多国际大戏,大家最关心的还是:这跟A股有什么关系?
关系大了。
第一,算力需求不是减少了,而是更分散了。当苹果、Meta、OpenAI全部加入"算力争夺战",整个AI芯片的市场盘子是在加速扩大的。英伟达之外的参与者越多,A股相关产业链的机会就越多。
第二,AI芯片多元化直接利好算力基础设施。不管是哪种芯片跑AI,都需要数据中心、电源管理、散热、互联——这些领域A股有大量优质标的,而且估值远没有英伟达那么夸张。
第三,本周A股创业板已经用脚投票。创业板指创11年新高3678点,"七姐妹"(宁德时代、中际旭创、新易盛、东方财富、阳光电源、胜宏科技、天孚通信)贡献了主要涨幅。这些公司本质上都是全球AI算力产业链上的中国供应商。
本周创业板指+6.65%,上证+1.64%,深证+4.02%。算力硬件板块成为全市场最亮眼的主线,中际旭创业绩炸裂(Q1净利同比+262%)是最强的基本面背书。
第四,芯片多元化打开了新的投资视野。过去大家只盯着"英伟达产业链",但现在谷歌TPU路线、 Cerebras路线、甚至AMD路线,都在A股有对应的映射。当全球算力投资多元化,A股相关公司的估值天花板也在悄然抬高。
本文数据来源:新浪财经、界面新闻、36氪、CSDN、证券时报、Wind资讯,数据截至2026年4月18日,仅供参考。
你觉得AI芯片多元化会利好A股哪些板块?
评论区说说你的看法,转发给身边做投资或科技的朋友,一起聊聊这个万亿级机会
风险提示:本文仅供参考,不构成投资建议。股市有风险,投资需谨慎。
夜雨聆风