乐于分享
好东西不私藏

五角大楼的AI原子弹:7巨头签约那天,人类跨过了一道红线

五角大楼的AI原子弹:7巨头签约那天,人类跨过了一道红线

1945年7月16日,新墨西哥州的沙漠里亮了一下。那天之后,人类手里多了一种能灭掉自己的东西。

2026年5月1日,五角大楼宣布跟7家科技公司签约,把它们的AI部署到军方的机密网络里。没有闪光,没有蘑菇云,但我脊背发凉的感觉是一样的。

名单:SpaceX、OpenAI、谷歌、微软、英伟达、AWS,还有一家叫Reflection的小公司。7家入场,1家被踢。

被踢的那家叫Anthropic。它犯的”错”是:拒绝让自家AI用于完全自主武器和大规模监控。

你品品——说”不杀人”的公司被赶走,说”都行”的公司留下来。这不是商业选择,这是文明方向的选择。

曼哈顿计划2.0,但这次没有奥本海默

当年造原子弹的时候,奥本海默心里是矛盾的。他后来说:”我现在成了死神,世界的毁灭者。”他知道自己打开了什么。

今天这7家公司的CEO,没有一个说过这种话。

五角大楼官方说,这些AI工具将用于”合法军事行动”,要把美军变成”AI优先的作战力量”。翻译成人话:从任务规划到武器定位,AI要渗透到打仗的每一个环节。

钱从哪来?《One Big Beautiful Bill Act》——一部专门给五角大楼AI和进攻性网络战拨款的法案。国防预算总额1.5万亿美元。7份合同的金额没有公开,但你能猜到量级。

原子弹和AI,恐怖的相似

我越想越觉得,这次跟1945年不是一个比喻,是一个结构。

第一,都是先有技术,后有规则。

原子弹造出来的时候,没有任何国际法约束它的使用。广岛长崎扔完,人们才开始坐下来谈核不扩散。AI现在就在这个阶段——已经入场了,规则还没写。

而且AI比核弹更难约束。核弹需要浓缩铀,需要巨大设施,卫星看得见。AI只需要代码和算力,一个笔记本就能跑。你没法像监控核设施一样监控AI武器。

第二,都是”别人有了我也要有”的军备竞赛。

美国有了原子弹,苏联4年后也造出来了。逻辑很简单:对手有,我没有,就是等死。

AI军事化一样。五角大楼一签,北京、莫斯科、特拉维夫会加速跟进。不是因为他们想,是因为他们不得不。1.5万亿预算砸下去,技术路径被趟平了,复制只是时间问题。

你猜这个军备竞赛的终点在哪?核竞赛的终点是”相互确保毁灭”——你灭我,我灭你,谁都不敢先动手。但AI不一样:AI做决策的速度是毫秒级的,人类反应不过来的时候,它已经开火了。

核武器的平衡靠”你按按钮我也能按”。AI武器的平衡靠什么?靠两个AI在毫秒级互相对话?你确定它们聊出来的东西人类能理解?

💡 一个判断AI军事化进展的硬指标:去看GenAI.mil的用户数。这是五角大楼的内部AI平台,上线5个月,130万国防部员工在用。5个月,百万级渗透率。当你的敌人已经用AI指挥作战了,你还用手写方案,这不是道德问题,是生存问题。

第三,都有人说”不”,但都没用。

1945年,参与曼哈顿计划的科学家中,有69人签署了《弗兰克报告》,建议不要对日本使用原子弹,先在无人岛演示威力。报告交上去了,没人理。

2026年,Anthropic说AI不能用于自主武器和大规模监控。五角大楼的回应是:把Anthropic列为”供应链风险”——这个标签以前只贴给跟敌对国家有关联的企业。一家加州AI公司,被归到了华为同一类。

谷歌那边,超过600名员工联名抗议。但你知道会怎样——2018年Project Maven抗议的时候,几千人联名的结果也只是谷歌退出一个项目。这次,谷歌连退出都没做,直接调低了安全设置。

历史不会重复,但会押韵。

最让我睡不着的一件事

说一个我想了好几天的问题。

核武器时代,人类好歹活过了80年,靠的是什么?靠一个前提——核按钮在人手里。不管多疯狂的人,至少他要亲自按下去。他有一秒、两秒、三秒的时间后悔。

AI武器没有这个窗口。

当一个AI系统检测到威胁,在0.3秒内判断需要反击,0.1秒发出指令——谁按暂停?人类指挥官看到屏幕上闪过一条”已拦截”的提示时,事情已经结束了。

我不是在说科幻。五角大楼自己的文件里已经把”决策优势”写在明面上了。什么叫决策优势?就是比对手快。快到什么程度?快到人类跟不上的程度。

所以AI军备竞赛的真正终局不是”谁更强”,而是”谁先放弃人类控制权”。因为只要你还需要人审批,你就比不需要人审批的那一方慢。慢就是输。

这不是技术问题,是进化问题。

我们站在哪一边

你可能会觉得这是美国的事,离我们很远。

两件事要想清楚。

第一,AI安全标准的底线正在被踩穿。半年前,”AI不能用于自主武器”还是硅谷的共识。现在,坚持这个共识的Anthropic被踢出了市场,被贴上了”供应链风险”的标签。当原则变成被惩罚的理由,下一个坚持原则的人就会少一个。

第二,军备竞赛的加速度是指数级的。美国入场,其他国家6到12个月内跟进。AI军事化的技术门槛比核武器低得多——不需要浓缩铀,只需要一个API key和一台服务器。当10个国家都有军事AI,国际秩序的游戏规则就彻底变了。

💡 如果你在做AI产品,关注这个方向:AI合规审计。不管是在美国还是在中国,军方用AI都需要审计追溯。这个需求不是”可能有”,是”一定有”。国内信创和AI安全审查的趋势只会更紧。

Anthropic会回来吗

大概率会。

上周特朗普自己说,Anthropic正在”改善”。白宫重新启动了对话,因为Anthropic发布了一个叫Mythos的网络安全工具,五角大楼太需要了,没法一直装作不需要。

但回来的时候,条件不会是Anthropic想要的。安全护栏会从”合同条款”变成”行政指导”,从硬约束变成软建议。法务团队会找到一种措辞,让两边都能对外说自己赢了。

1945年之后,核武器没有消失。它只是从”一种新武器”变成了”一种常态化的威慑”。人类跟它共存了80年,靠的不是消除它,而是建立了一套脆弱但有效的规则体系。

AI武器也会走同样的路。问题在于:核武器的规则花了广岛和长崎才换来。AI武器的规则,要花什么来换?

我不知道。但我知道,5月1日这一天,跟1945年7月16日一样,是回不了头的那种日子。

你怎么看?留言聊聊。

关注我,每天一个AI行业的一线判断。