乐于分享
好东西不私藏

AI伦理之战:五角大楼"封杀"Anthropic,8大巨头瓜分200亿军火单

AI伦理之战:五角大楼"封杀"Anthropic,8大巨头瓜分200亿军火单

一条刷屏硅谷的消息,撕开了AI行业最不愿面对的那道裂缝。


2026年5月1日,美国国防部宣布与八家科技公司签署协议,将AI能力部署至国防部机密网络。这条消息本身并不令人意外——大国AI军备竞赛早已是明牌。但真正引爆舆论的,是名单上那个被特别标注的名字:Anthropic,空降出局。

而就在八天前,Google刚宣布向Anthropic投入至多400亿美元——这是AI行业有史以来最大的一笔投资,将Anthropic估值推至3500亿美元。

一边是硅谷最大金主押下历史级重注,一边是本国军方将其拒之门外。 这家”最safety-conscious”的AI公司,正在以一己之力,对抗整个美国军事机器。


事件的起点:一份价值2亿的合同,一张拒绝签字的纸

故事要从2026年2月说起。

彼时,五角大楼向Anthropic递上一份价值2亿美元的合同,内容是将Anthropic的核心模型Claude部署至军方机密网络。听起来是一桩双赢的大单——美国最领先的AI实验室,遇上全球最大的军费开支主体。

但Anthropic说不。

拒绝的原因,是合同要求移除Claude内置的安全护栏——即防止被用于大规模监控和致命性自主武器(LAWS)的约束机制。 Anthropic的立场很明确:可以服务国防,但不能以牺牲AI安全红线为代价。

这一拒绝,在国防部内部引发震动。一位匿名官员向《Politico》透露:”这是第一次有美国本土AI公司,在正经的国防合同面前说’No’。”


有毒的合作:反击来得又快又狠

拒绝签合同之后,Anthropic收到的不是谈判邀请,而是一张”供应链风险”标签。

2026年3月,美国国防部长Pete Hegseth正式将Anthropic列入”供应链风险实体名单”——这是美国政府首次对本土AI公司动用这一标签,其实际后果是:任何使用联邦资金的机构,不得与该公司开展涉及机密网络的项目合作。

用大白话说:政府把Anthropic定性成了”不可信供应商”,理由是它”不安全”。

Anthropic随即发起诉讼,指控国防部此举是”非法报复”——公司既没有违法,也没有危害国家安全,唯一的”罪状”是坚守了自己的安全原则。

3月下旬,联邦法官发布临时禁令,裁定国防部的行动”任意且反复无常”(arbitrary and capricious),要求政府暂停执行这一制裁。

然而,故事并未就此结束。


5月1日:八仙过海,Anthropic彻底出局

禁令归禁令,国防部手上的项目不能停。

2026年5月1日,五角大楼正式宣布,已与以下八家公司签署机密网络AI部署协议:

       

         
           
           
         

公司 角色定位
SpaceX Starlink + AI边缘计算
OpenAI GPT系列军事用例
Google Gemini及TPU算力支持
NVIDIA GPU算力基础设施
Microsoft Azure政府云+AI集成
AWS 亚马逊政府云服务
Oracle 机密数据库与AI
Reflection AI 安全AI模型新兴力量

       

     

国防部官员在简报中特别强调:“Anthropic仍属禁入名单,但Mythos是另一个问题。” Mythos是Google新近推出的网络安全专用模型,据悉已被允许在特定场景下接入国防网络——即便Google的最大单一股东正是大力投资了Anthropic的Alphabet。

这一细节成了整件事最具讽刺意味的注脚。


Google的400亿:在敌人的战场上的投资

要理解这件事的荒诞性,需要回看4月24日的另一条爆炸新闻。

Google(通过母公司Alphabet)宣布向Anthropic投入400亿美元,其中100亿美元即时到账,剩余300亿视里程碑达成情况分批注入。这笔投资将使Anthropic获得5GW的TPU算力支持,估值冲上3500亿美元,稳坐全球最大AI独角兽之位。

讽刺在于:Google的老板们正在投资一家被自己国家军方拉黑的公司。

Alphabet高管层显然不这么看——他们将这笔投资定位为”扩大AI生态布局”的战略动作,与国防部的决定是两套独立决策系统。但市场似乎并不买账:消息公布当天,Alphabet股价微涨,Anthropic估值飙升,而军事AI板块整体出现明显资金流入。


一场没有标准答案的战争

这件事撕开了AI行业最核心的伦理裂缝:AI公司到底应不应该与军事力量绑定?

支持者认为: 现代战争早已是信息战+AI战,美国若不在军事AI领域保持领先,后果将不堪设想。国防部需要最强大的工具,硅谷有义务提供——Anthropic的拒绝,是”圣母心”作祟,危险且不现实。

反对者(包括Anthropic)认为: AI不同于普通技术——它有能力自我放大、自主编排目标。若将内置安全护栏移除的AI系统交给军方,无异于在大规模杀伤性武器上再加一层自动化。Anthropic的坚守,不是软弱,是底线。

《The Guardian》在3月的报道中写道:这场对峙,迫使整个科技行业重新面对一个它始终回避的问题——当你的产品被用来杀人,你愿意走多远?

Anthropic说:我划了一条线。
五角大楼说:这条线,我们不买账。


点评:历史的分歧点,往往静悄悄到来

2026年5月1日,没有爆炸性仪式,没有世纪级签字画面。

但在机密网络的服务器里,在八份协议的代码里,一个改变AI行业走向的决定已经落地:安全和军事需求之间的那条线,美国政府已经用行动给出了自己的答案。

而Anthropic——或许正像那只站在金门大桥上、拒绝为车队让路的鹰——
不是最强大的,但至少,是有原则的。

这条原则值多少钱?市场说:3500亿。
五角大楼说:一文不值。


配图说明:本文配图因系统原因暂缺,建议编辑自行配图(推荐关键词:Pentagon AI military technology, AI ethics vs national security, Anthropic Claude)。