AI武器化元年:美军收编8家科技巨头意味着什么?
130万人。
这是美国国防部GenAI.mil平台上线5个月后的活跃用户数。
这130万人不是普通网民,而是手握武器、有权开火的美国军人。他们正在用AI系统辅助决策——有些系统,已经开始参与”合法的作战行动”。
2026年5月1日,美国国防部正式宣布与SpaceX、OpenAI、Google、NVIDIA、Reflection AI、Microsoft、AWS、Oracle等8家公司达成协议,将AI技术部署至IL-6(机密级)和IL-7(最高机密级)网络。而五角大楼为推动AI军事化,已向国会申请了超过540亿美元的预算——这笔钱将用于新成立的”国防自主作战小组”(DAWG),覆盖自主无人系统、AI作战平台等一整套体系。
这是一个足以载入史册的节点。但绝大多数人还没有意识到它的重量。
一、这不是”AI辅助”,是AI参战
很多人听到”AI军事合作”,脑海里浮现的画面是:军官桌上多了一个聊天机器人,帮忙写写报告、查查资料。
错了。
这次合作的深度,远超外界想象。
根据五角大楼的公开信息,这8家公司将直接介入IL-6和IL-7两级网络——前者是机密级,后者是最高机密级。这意味着AI系统将接触到真正的作战计划、情报数据、甚至核设施相关的敏感信息。
更关键的是”合法的作战行动”这六个字。
这不是五角大楼的法务措辞游戏。在美军的语境里,这句话的含义很清楚:这些AI系统,不只是旁观者,它们正在参与实际的军事行动。
24000%。
这是自主武器预算的同比增长幅度。
两万四千个百分点。没有任何领域能在这个数字面前保持淡定。这意味着美国军方正在以前所未有的速度,将”开火权”交给算法。
而GenAI.mil平台,5个月内部署了数十万个AI智能体。
注意单位:万个。
这不是小打小闹的试点,是工业化部署。一个国家军队,正在用流水线的速度,将AI智能体嵌入作战链条的每一个环节。
二、为什么是这8家?Anthropic为什么出局?
这次名单里,有两个细节值得玩味。
第一,为什么是这8家?
看看这个名单:SpaceX、OpenAI、Google、NVIDIA、Reflection AI、Microsoft、AWS、Oracle。
几乎清一色是基础设施型和底层技术型公司。SpaceX提供通信和太空能力,NVIDIA提供算力底座,OpenAI和Google提供大模型,AWS和Oracle提供云服务,Microsoft提供企业级整合能力。
美国军方这次不是找”AI应用商”,而是直接整合”AI供应链”。从芯片到模型到云服务到终端应用,一条龙锁定。
第二,为什么Anthropic被排除在外?
这是最让外界好奇的问题。
Anthropic的Claude系列模型,在AI安全性和可解释性方面有口皆碑。按理说,它应该是军事AI合作的首选——至少在”负责任地使用AI”这个议题上。
但事实恰恰相反。
有几种可能的解释:
解释一:技术路线之争。 Anthropic强调的是” Constitutional AI”——让AI自我约束、拒绝危险指令。而五角大楼需要的是”听话”的系统,能在战场上执行指令,哪怕这些指令在和平时期看来是违反AI伦理的。
解释二:商业博弈。 Anthropic与Amazon关系密切(后者是它的投资者),而Amazon本身就在名单里。引入Anthropic可能打破已有的利益格局。
解释三:战略自主。 国防部CTO埃米尔·迈克尔(Emil Michael)多次强调供应商多元化的必要性——不能让任何一家公司卡住军方的AI命脉。
无论哪种解释,背后折射的逻辑是一致的:AI军事化需要的不是最安全的AI,而是最听话、最可控、最能整合进现有军事体系的AI。这本身就是一个令人不安的信号。
三、540亿:AI军工复合体正在成型
540亿美元是什么概念?
这是五角大楼为”国防自主作战小组”(DAWG)申请的FY2027预算——用于自主无人系统、AI作战平台和整个AI军事化体系的构建。8家公司的合同是其中一部分,但整个盘子远比”买AI服务”大得多。
540亿美元,将撬动一个全新的军工复合体。
传统的军工复合体,核心是波音、洛克希德·马丁这样的武器制造商。他们造飞机、造导弹、造坦克——硬件为王。
而这一次,科技公司将成为新的核心节点。它们不造枪炮,但它们造”大脑”——控制武器的算法、处理情报的系统、辅助决策的模型。
这意味着什么?
意味着战争的主要利润,将从硬件制造转向软件和服务。
洛克希德·马丁卖一架F-35,利润是固定的。而OpenAI卖一套AI决策系统,可以按调用量收费、按智能体数量收费、按数据处理量收费——这是一台永不停机的印钞机。
更危险的是,这套系统的扩张逻辑是自我强化的。
AI系统用得越多,学习数据越多,能力越强;能力越强,用得越多。 就像当年Facebook的用户增长飞轮一样,这套”军事AI增长飞轮”一旦转起来,就很难停下来。
而参与这套系统的公司,将成为美国军事能力不可分割的一部分。它们不是”供应商”,而是”共建者”。这带来的不仅是商业利益,更是难以撼动的政治影响力。这不是国防部在用AI,而是AI在改变国防部。
四、GenAI.mil:从辅助决策到自主行动
GenAI.mil平台是这次合作的集大成者。
130万国防部人员使用,5个月内数十万个AI智能体部署——这个平台的野心,远不止”辅助决策”这么简单。
让我描述一个可能的未来场景:
凌晨3点,中东某地。
传感器捕捉到移动热源。系统自动分析:车辆类型、行驶路线、威胁概率。AI生成建议:击落/追踪/忽略。
指挥官点头。
两秒后,导弹发射。
在这个场景里,AI不是”建议者”,而是”行动发起者”。人类的角色,从”决策者”变成了”批准者”。而人类批准的依据,是AI的分析——但这个分析是否准确、是否存在偏见、是否存在漏洞,指挥官根本无法在两秒内判断。
这不是AI辅助人类决策,而是人类为AI决策背书。
一旦这个模式被接受,”人类必须批准”这个环节,就会变得越来越形式化。因为:AI决策速度远超人类
AI可以同时处理上千个威胁
人类在高压下会疲劳、会犯错,而AI不会
于是,链条会自然滑向”信任AI”→”依赖AI”→”授权AI自主行动”。
GenAI.mil,就是这条滑梯的起点。
五、算法决定生死:12%错误率的代价
在所有关于AI军事化的讨论中,有一个数字被反复引用:12%。
这是以色列国防军在加沙使用的”Lavender”AI目标识别系统的错误率——据CNN和+972 Magazine等媒体的调查报道。
意味着每识别100个目标,可能误判12个。
如果这12个目标是平民呢?
这个数字不是理论推演。以色列”Lavender”系统的实战数据表明,12%的误判率已导致大量平民伤亡。
这不是我的判断,是CNN、+972 Magazine等媒体基于以色列情报官员证词的调查结论。而美军正在加速部署的AI系统,规模远超以色列——如果同样的错误率出现在更庞大的系统中,代价将是几何级增长。
当这个数字被放置在”算法决定生死”的语境下,它的重量变了。
每100个决定,可能有12个是错的。
你愿意接受这个赌注吗?
如果是赌钱,你不会。
如果是赌别人的命呢?
联合国秘书长古特雷斯有一句话值得反复咀嚼:“人类命运不能交由算法决定。”
但问题是:当算法已经嵌入作战链条,当130万人每天在使用AI系统,”不交由算法决定”已经变成了一种鸵鸟策略。
真正的困境不是”算法会不会决定人类命运”,而是“我们如何在算法决定人类命运的时候,依然保持人类的尊严和责任”。
这需要的不只是技术,更是一种政治意愿:宁可降低效率,也要保留人类的最后否决权。
但540亿美元砸下去,这种意愿还能剩下多少?
六、尾声:当算法成为刽子手
回到开头的问题:美军收编8家科技巨头意味着什么?
意味着AI武器化,从概念变成了现实。
意味着战争的主角,正在从人变成算法。
意味着“算法决定生死”这个曾经只存在于科幻小说里的场景,已经写进了军事采购合同。
540亿美元,8家公司,130万用户,数十万个AI智能体——这些数字将塑造我们所有人的未来。
不是因为我们会直接参与战争,而是因为:
当一个超级大国的军队开始用算法做生死决策,它建立的模式,会成为全世界的参照系。
当这个参照系被接受,”人类为AI决策背书”就会变成新的常态。
写在最后
最后,让我们把视野拉大一点。
这不是美国一家的事。这是一场正在重塑全球力量格局的竞赛。
AI军事化,已经成为大国博弈的新维度。
美国的路径是清晰的:整合科技巨头、部署AI系统、制定规则(在有利的情况下)。
中国的应对也在加速:发展自主AI能力、建设军事智能化体系、寻求国际规则制定权。
但这场竞赛最危险的地方,不在于谁跑得更快,而在于双方都在被迫加速。
就像冷战时期的核军备竞赛一样,一旦一方开始部署AI武器系统,另一方就无法坐视不管。因为技术的代差,可能意味着战场的单向屠杀。
这不是一个国家能单独踩刹车的问题。这是人类共同面对的命题。
本文数据来源:美国国防部FY2027预算文件、DefenseScoop、The Guardian、CNN、+972 Magazine、联合国日内瓦办事处公开声明等。
夜雨聆风