去年9月,OpenAI拉着英伟达在伦敦高调签约,310亿英镑砸向英格兰东北部,要建一座名叫"星门"的超级数据中心。半年后的4月9号,这个项目被叫停了。
理由是一个听起来特别不"未来"的原因——电费太贵。
同一天,Anthropic跟五角大楼的官司又输了一轮,Meta刚发的新模型居然是闭源的,谷歌悄悄上线了一个可能比任何大模型都重要的功能,苹果被曝已经在测试自研AI芯片的基板。
这一周(4月7日–11日)发生的事,拼在一起看,指向一个越来越清晰的信号:AI竞赛的决胜点,已经不在模型本身了。
4月9号,路透社、CNBC、卫报几乎同时报道:OpenAI暂停了英国的Stargate数据中心项目。
这个项目去年9月才高调宣布,联合英伟达和英国AI基础设施公司Nscale,计划在英格兰东北部部署最多8000块GPU,配套投资高达310亿英镑。当时正好赶上特朗普访英,被包装成美英AI合作的标志性成果。
半年多过去了,OpenAI给出的理由很直白:电费太贵,监管不确定。
"我们会继续探索Stargate UK,当监管环境和能源成本能够支撑长期基础设施投资时,我们会推进。"——OpenAI发言人对CNBC说的原话。
这事儿说明了一个什么问题,那就是——AI竞赛的瓶颈已经从"谁的模型更强"转移到了"谁有足够便宜的电"。
英国的工业电价在欧洲属于偏高水平,而且电网容量有限。卫报此前的调查还发现,Nscale这家负责建数据中心的公司之前根本没建过数据中心,原本2026年要交付的超算中心到今年3月还是一片脚手架。
说白了,这个项目从一开始可能就带着"秀肌肉"的成分——签约时间赶在国事访问,投资数字好看,实际落地的基础条件远没跟上。
而这不是OpenAI一家的问题,而是全球AI基础设施建设正在撞上能源现实的墙。美国本土的星门计划也在调整合作模式(跟Oracle的合作取代了原来软银主导的方案),海外扩张更是困难重重。接下来半年,类似的"暂停"消息只会越来越多。
4月8号,Meta正式发布了Muse Spark——这是Meta超级智能实验室(MSL)成立以来的第一个模型。
去年扎克伯格对Llama系列的表现不满意(Llama 4发布后评价不佳),砸了143亿美元收购数据标注公司Scale AI 49%的股份,挖来Scale AI创始人汪滔(Alexandr Wang)当首席AI官,组建了MSL,从零开始重建AI技术栈。
九个月后,Muse Spark来了。以下是几个关键信息:
闭源。没错,一向以开源旗手自居的Meta,这次发了个闭源模型。官方说"希望未来开源后续版本",但没给时间表
原生多模态:支持视觉思维链、工具调用、多智能体编排
"小而强"的定位:Meta说Muse Spark达到Llama 4 Maverick同等能力只需要十分之一的算力。这不是吹嘘,是策略——先用小模型验证新架构可行,大模型已经在路上
性能有竞争力但没全面碾压:在多模态理解、健康问答、智能体任务上跟GPT-5.4和Gemini 3.1 Pro打得有来有回。但在编程(SWE-Bench)和长时间智能体任务上还有差距
21世纪经济报道的测评总结得挺到位:Muse Spark的"沉思模式"(多智能体并行推理)在"人类终极考试"上拿了58.4%,GPT-5.4 Pro是58.7%——几乎打平。但在编程和代码工作流上,跟Claude Opus 4.6和Gemini 3.1还有明显差距。
我的看法:Muse Spark最大的意义不在于跑分,而在于它证明了MSL这条路走得通。九个月从零开始搭团队、建基础设施、出模型,而且性能不拉胯——这对投资者信心的提振远比任何基准测试分数重要。发布当天Meta股价涨了6.5%就说明问题了。
但闭源这个决定,多少让人唏嘘。Llama系列曾经是开源社区最重要的支柱之一,现在Meta显然认为:要追赶第一梯队,不能再"散装"了。
这周还有一条容易被忽略但极其重要的新闻:4月9号,华盛顿特区联邦上诉法院驳回了Anthropic的紧急上诉。
事情要从头说。Anthropic去年跟五角大楼签了2亿美元的合同,把Claude部署到军方涉密网络。但在后续谈判中,双方在一个核心问题上僵住了——五角大楼要求无限制使用Claude,Anthropic坚持画两条红线:
不能用于完全自主的致命武器系统
不能用于对美国公民的大规模监控
谈判破裂后,特朗普在社交媒体上直接下令联邦机构停用Anthropic产品,国防部长将Anthropic列为"供应链风险"——这个标签以前只用在外国公司身上。
Anthropic随即起诉,指控五角大楼"违宪报复"。3月底旧金山法院判了Anthropic赢,禁止政府强制执行禁令。但这周华盛顿法院又判了政府赢,驳回了Anthropic在国防合同层面的上诉。
现在的局面很割裂:Anthropic可以继续跟其他联邦机构合作,但被排除在国防合同之外。
这是第一次把AI行业一个尖锐的问题摆到了台面上:当你的技术足够强大,你有没有权利决定它不被用来做什么?
Anthropic不是反对AI用于军事——他们的Claude确实在美军对伊朗的军事行动中被使用过。他们反对的是"不加任何限制地使用"。但在五角大楼看来,供应商没有资格给军方画红线。
这场官司还会打很久,但它设定的先例会影响整个行业。
同样是4月9号,谷歌在Gemini网页版里上线了一个叫Notebooks的新功能。
功能本身不复杂:你可以把跟Gemini的对话、Google Drive里的文件、网页内容攒到一个"笔记本"里,然后基于这些材料跟AI对话。关键是——它跟NotebookLM双向同步了。
在Gemini里建的笔记本,可以直接在NotebookLM里打开继续用。反过来也行。
这意味着什么?意味着谷歌正在把Gemini从"聊天工具"变成个人知识管理系统。
想象一个场景:你在研究一个课题,先用Gemini搜集资料和讨论想法,内容自动存到笔记本里。然后切到NotebookLM,用那些资料生成摘要、音频概述。最后回到Gemini,基于整理好的知识库写报告。全程无缝衔接。
目前这个功能只对Gemini付费用户开放(Ultra/Pro/Plus),未来几周会扩展到移动端和免费用户。
这可能是谷歌今年最被低估的一个产品更新。大家都在关注模型跑分,但谷歌在做的事情是把AI嵌入工作流——这才是真正改变用户习惯的东西。NotebookLM本来就是今年增长最快的AI产品之一,跟Gemini打通后想象空间更大了。
最后说一条硬件方向的。
4月8号,多家媒体报道:苹果已经开始测试自研AI服务器芯片"Baltra"的玻璃基板,直接向三星电机采购样品,芯片将采用台积电3纳米N3E工艺。
这颗芯片是苹果跟博通(Broadcom)联合设计的,定位AI推理(不是训练),预计2027年投入使用。大摩的分析师说苹果已经在台积电悄悄囤产能了。
苹果为什么要自己做AI芯片?两个字:省钱。
现在苹果的Private Cloud Compute(为Apple Intelligence提供云端算力的基础设施)跑的是M2 Ultra,后面会升级到M4系列。但这些芯片本来是给Mac和iPad设计的,用来跑数据中心不是最优解——能效比不够高,而且还得买英伟达的GPU补充算力。
Baltra就是苹果给自己的AI云量身定制的方案:专门做推理、不做训练,追求每瓦特性能最大化,减少对英伟达的依赖。
这跟谷歌做TPU、亚马逊做Trainium/Inferentia是一个逻辑——超大规模AI玩家最终都会走向自研芯片,因为通用GPU太贵了。
第一,能源问题正在重塑AI版图。 OpenAI英国项目暂停只是冰山一角。哪里电便宜、电网稳定、审批快,哪里就会成为下一个AI基础设施高地。这不再是纯技术竞争,而是能源政策+地缘政治+工程执行力的综合博弈。
第二,模型竞赛进入"群雄并起"阶段。 GPT-5.4、Gemini 3.1、Claude Opus 4.6、Muse Spark——头部模型之间的差距在缩小,很难再出现一家独大的局面。差异化正在从"谁更聪明"转向"谁的生态更好用"。谷歌的Notebooks就是一个例子。
第三,AI伦理不再是学术讨论,而是真金白银的商业风险。 Anthropic因为画了两条伦理红线,丢掉了整个国防市场。这个代价到底值不值,每家公司都在掂量。
第四,苹果永远是那个"迟到但不缺席"的玩家。 当所有人都在抢着发模型、刷跑分的时候,苹果在闷头建基础设施——自研芯片、自建数据中心、优化端云协同。等Baltra量产的时候,Siri可能真的不一样了(虽然我对此只保留谨慎乐观)。
这周的硅谷,像是把一整年的戏份压缩到了五天里演完。而这才4月。
下半年只会更热闹。
夜雨聆风