五角大楼的AI原子弹:7巨头签约那天,人类跨过了一道红线
1945年7月16日,新墨西哥州的沙漠里亮了一下。那天之后,人类手里多了一种能灭掉自己的东西。
2026年5月1日,五角大楼宣布跟7家科技公司签约,把它们的AI部署到军方的机密网络里。没有闪光,没有蘑菇云,但我脊背发凉的感觉是一样的。
名单:SpaceX、OpenAI、谷歌、微软、英伟达、AWS,还有一家叫Reflection的小公司。7家入场,1家被踢。
被踢的那家叫Anthropic。它犯的”错”是:拒绝让自家AI用于完全自主武器和大规模监控。
你品品——说”不杀人”的公司被赶走,说”都行”的公司留下来。这不是商业选择,这是文明方向的选择。
曼哈顿计划2.0,但这次没有奥本海默
当年造原子弹的时候,奥本海默心里是矛盾的。他后来说:”我现在成了死神,世界的毁灭者。”他知道自己打开了什么。
今天这7家公司的CEO,没有一个说过这种话。
五角大楼官方说,这些AI工具将用于”合法军事行动”,要把美军变成”AI优先的作战力量”。翻译成人话:从任务规划到武器定位,AI要渗透到打仗的每一个环节。
钱从哪来?《One Big Beautiful Bill Act》——一部专门给五角大楼AI和进攻性网络战拨款的法案。国防预算总额1.5万亿美元。7份合同的金额没有公开,但你能猜到量级。

原子弹和AI,恐怖的相似
我越想越觉得,这次跟1945年不是一个比喻,是一个结构。
第一,都是先有技术,后有规则。
原子弹造出来的时候,没有任何国际法约束它的使用。广岛长崎扔完,人们才开始坐下来谈核不扩散。AI现在就在这个阶段——已经入场了,规则还没写。
而且AI比核弹更难约束。核弹需要浓缩铀,需要巨大设施,卫星看得见。AI只需要代码和算力,一个笔记本就能跑。你没法像监控核设施一样监控AI武器。
第二,都是”别人有了我也要有”的军备竞赛。
美国有了原子弹,苏联4年后也造出来了。逻辑很简单:对手有,我没有,就是等死。
AI军事化一样。五角大楼一签,北京、莫斯科、特拉维夫会加速跟进。不是因为他们想,是因为他们不得不。1.5万亿预算砸下去,技术路径被趟平了,复制只是时间问题。
你猜这个军备竞赛的终点在哪?核竞赛的终点是”相互确保毁灭”——你灭我,我灭你,谁都不敢先动手。但AI不一样:AI做决策的速度是毫秒级的,人类反应不过来的时候,它已经开火了。
核武器的平衡靠”你按按钮我也能按”。AI武器的平衡靠什么?靠两个AI在毫秒级互相对话?你确定它们聊出来的东西人类能理解?
💡 一个判断AI军事化进展的硬指标:去看GenAI.mil的用户数。这是五角大楼的内部AI平台,上线5个月,130万国防部员工在用。5个月,百万级渗透率。当你的敌人已经用AI指挥作战了,你还用手写方案,这不是道德问题,是生存问题。
第三,都有人说”不”,但都没用。
1945年,参与曼哈顿计划的科学家中,有69人签署了《弗兰克报告》,建议不要对日本使用原子弹,先在无人岛演示威力。报告交上去了,没人理。
2026年,Anthropic说AI不能用于自主武器和大规模监控。五角大楼的回应是:把Anthropic列为”供应链风险”——这个标签以前只贴给跟敌对国家有关联的企业。一家加州AI公司,被归到了华为同一类。
谷歌那边,超过600名员工联名抗议。但你知道会怎样——2018年Project Maven抗议的时候,几千人联名的结果也只是谷歌退出一个项目。这次,谷歌连退出都没做,直接调低了安全设置。
历史不会重复,但会押韵。

最让我睡不着的一件事
说一个我想了好几天的问题。
核武器时代,人类好歹活过了80年,靠的是什么?靠一个前提——核按钮在人手里。不管多疯狂的人,至少他要亲自按下去。他有一秒、两秒、三秒的时间后悔。
AI武器没有这个窗口。
当一个AI系统检测到威胁,在0.3秒内判断需要反击,0.1秒发出指令——谁按暂停?人类指挥官看到屏幕上闪过一条”已拦截”的提示时,事情已经结束了。
我不是在说科幻。五角大楼自己的文件里已经把”决策优势”写在明面上了。什么叫决策优势?就是比对手快。快到什么程度?快到人类跟不上的程度。
所以AI军备竞赛的真正终局不是”谁更强”,而是”谁先放弃人类控制权”。因为只要你还需要人审批,你就比不需要人审批的那一方慢。慢就是输。
这不是技术问题,是进化问题。
我们站在哪一边
你可能会觉得这是美国的事,离我们很远。
两件事要想清楚。
第一,AI安全标准的底线正在被踩穿。半年前,”AI不能用于自主武器”还是硅谷的共识。现在,坚持这个共识的Anthropic被踢出了市场,被贴上了”供应链风险”的标签。当原则变成被惩罚的理由,下一个坚持原则的人就会少一个。
第二,军备竞赛的加速度是指数级的。美国入场,其他国家6到12个月内跟进。AI军事化的技术门槛比核武器低得多——不需要浓缩铀,只需要一个API key和一台服务器。当10个国家都有军事AI,国际秩序的游戏规则就彻底变了。
💡 如果你在做AI产品,关注这个方向:AI合规审计。不管是在美国还是在中国,军方用AI都需要审计追溯。这个需求不是”可能有”,是”一定有”。国内信创和AI安全审查的趋势只会更紧。
Anthropic会回来吗
大概率会。
上周特朗普自己说,Anthropic正在”改善”。白宫重新启动了对话,因为Anthropic发布了一个叫Mythos的网络安全工具,五角大楼太需要了,没法一直装作不需要。
但回来的时候,条件不会是Anthropic想要的。安全护栏会从”合同条款”变成”行政指导”,从硬约束变成软建议。法务团队会找到一种措辞,让两边都能对外说自己赢了。
1945年之后,核武器没有消失。它只是从”一种新武器”变成了”一种常态化的威慑”。人类跟它共存了80年,靠的不是消除它,而是建立了一套脆弱但有效的规则体系。
AI武器也会走同样的路。问题在于:核武器的规则花了广岛和长崎才换来。AI武器的规则,要花什么来换?
我不知道。但我知道,5月1日这一天,跟1945年7月16日一样,是回不了头的那种日子。
你怎么看?留言聊聊。
关注我,每天一个AI行业的一线判断。
夜雨聆风