乐于分享
好东西不私藏

五角大楼一口气签下四家AI巨头,机密网络大门正式向硅谷敞开

五角大楼一口气签下四家AI巨头,机密网络大门正式向硅谷敞开

130万军方人员已在用AI,现在五角大楼要把大模型从办公桌搬进最高密级作战网络。Nvidia、微软、AWS、Reflection AI集体入局,美军正在打造一支”AI国家队”。

Anthropic说不,五角大楼说:那我找别人

故事要从今年2月说起。

2月27日,Anthropic与五角大楼的矛盾被TechCrunch公开报道。矛盾的焦点非常明确:五角大楼希望Anthropic”允许军方为一切合法目的使用其模型”(Allow the Pentagon to use Anthropic’s model for all lawful purposes),但Anthropic拒绝将自家模型开放给大规模国内监控和完全自主武器等场景。

这场冲突的本质,是一个根本性的权力问题——当AI进入国家安全领域,是供应商的使用政策说了算,还是军方自己定义”合法用途”的边界?

Anthropic选择了坚持自己的红线。但五角大楼没有停下来等,而是立刻扩大供应商池。

3月1日,OpenAI迅速与五角大楼达成协议。OpenAI的策略很微妙:它同样声明不支持大规模国内监控和自主武器,但它选择通过云端API部署、人员在环监控、合同条款约束等技术手段来维持安全边界,而不是在使用政策层面与军方硬碰硬。OpenAI当时给出了一句颇有深意的话:“部署架构比合同措辞更关键。”(Deployment architecture matters more than contract language.)

3月16日,Elon Musk旗下的xAI也获得了进入机密网络的通道,其聊天机器人Grok计划部署到军方的GenAI.mil平台。这一步立刻引发争议——参议员Elizabeth Warren公开致函五角大楼,质疑Grok的安全护栏是否足够。

4月28日,Google跟进,扩大了五角大楼对其AI能力的访问权限。

到了5月1日,五角大楼又把Nvidia、微软、AWS和Reflection AI纳入了协议范围。

从2月底到5月初,不到三个月时间,五角大楼已经把OpenAI、xAI、Google、Nvidia、微软、AWS、Reflection AI全部拉到了桌上。Anthropic的拒绝没有让五角大楼放慢一步——恰恰相反,它加速了军方”去单点依赖”的决心。

从办公辅助到最高密级:AI正在穿透军方网络的层级

这次签约最关键的信号,藏在两个技术术语里:IL6和IL7

五角大楼的信息系统按照敏感级别分层。此前,军方的GenAI.mil平台已经有超过130万名国防部人员在使用,但主要用于非机密任务——文献检索、文件起草、数据分析这些日常办公工作。

而IL6(Impact Level 6)和IL7(Impact Level 7)对应的是机密级和更高密级的网络环境。AI一旦进入这些层级,面对的就不再是”怎么帮参谋写个备忘录”的问题,而是涉及军事情报、作战规划、跨域态势感知等真正的核心军事工作流。

五角大楼在官方声明中毫不掩饰自己的野心。TechCrunch援引的官方表述是:

“这些协议会加速把美国军队改造成’AI优先的作战力量’(AI-first fighting force),并强化作战人员在各战争域中的决策优势。”

“AI-first fighting force”——这个措辞在美军公开文件中出现,说明五角大楼已经不再把AI当成锦上添花的辅助工具,而是准备将其作为军事能力的底层支柱来建设。

这次签约名单透露的战略意图

和此前签约的OpenAI、xAI、Google不同,这一批新增的四家公司覆盖了AI栈的不同层次:

Nvidia代表的是底层算力。签约Nvidia意味着五角大楼的AI部署不只是调用模型API的问题,还涉及GPU基础设施在高密级环境中的部署。

微软和AWS代表的是云平台与企业级部署能力。这两家的加入,意味着五角大楼正在考虑的是完整的AI运行环境——包括计算资源编排、安全管控、数据隔离、身份认证等一整套企业级架构。

Reflection AI是名单中最出人意料的一个名字。相比前面三家万亿市值的巨头,Reflection AI是一家新兴AI公司。它的出现说明五角大楼正在刻意保持供应商多样性,而非只押注大厂。

五角大楼自己也在声明中明确了这一点:

“国防部会继续建设一种能够避免AI供应商锁定、并保证联合作战部队长期灵活性的架构。”

翻译成大白话就是:不把鸡蛋放在一个篮子里。算力找Nvidia,平台找微软和AWS,模型找OpenAI和Google,再加上xAI和Reflection AI做补充——五角大楼正在搭建的,是一个”多模型、多云、多算力”的军事AI基础设施矩阵。

硅谷不是铁板一块:每家公司的安全底线并不相同

在这场军方AI扩容的浪潮中,一个容易被忽视的事实是:参与合作的AI公司之间,安全边界差异巨大。

Anthropic直接拒绝了五角大楼的全权限要求,坚持在大规模监控和自主武器上划红线。

OpenAI选择了一条中间路线——合作但保留技术层面的控制权,强调云端部署、人员在环、合同条款三重约束。

xAI/Grok的接入则引发了最大争议。Elizabeth Warren在公开信中质疑Grok的安全护栏是否足够,担忧模型输出失控可能对机密系统的网络安全构成额外威胁。

Google的态度则更加务实——在Anthropic退出后快速补位扩大合作。

这意味着,五角大楼机密网络中即将同时运行多家公司的AI产品,而这些产品在武器化限制、数据留存政策、监控用途限制等方面的标准并不统一。当”lawful operational use”成为唯一的官方使用边界表述时,具体执行中的伦理尺度,实际上取决于每家公司自己怎么理解和落实。

机密网络里的AI黑箱:谁来监督?

社交媒体上对这条新闻的反应,精准地捕捉到了公众的核心焦虑。

有人关注的是战时韧性问题。一位名叫Steven Marlow的用户在评论区写道:”如果在模拟攻击中云链路断了呢……算了,我相信没事的。”讽刺背后是一个严肃问题:当高密级军事系统越来越依赖复杂的AI/云基础设施,掉线容错和抗攻击能力就变成了必须回答的实战考题。

更深层的担忧则围绕监督问题展开。在非机密环境中,AI的使用至少还有一定程度的外部可见性。但一旦进入IL6/IL7级别的机密网络,外部监督几乎不可能:模型在做什么推理、输出了什么建议、是否发生了误判——这些问题在高密级环境里变得更难被发现和纠正。

从2月至今的连续报道中,行业讨论的焦点可以归结为三个尖锐问题:

第一,谁来定义”合法”?当五角大楼说”lawful operational use”时,它保留了极大的解释空间。法律允许的事情,未必在伦理上没有争议。

第二,供应商有没有权力限制军方?Anthropic试图用自己的使用政策划线,但五角大楼用实际行动证明——如果你不配合,有的是别家愿意配合。

第三,当AI进入机密系统后,谁来审计?Google员工曾经用公开信抵制军方合同,Warren用国会问询施压xAI——但这些监督手段在高密级环境中的效力,恐怕会大打折扣。

结语:AI军事化的列车已经提速

从130万人使用的办公辅助平台,到算力、平台、模型全面进入最高密级网络,五角大楼的AI路线图正在以惊人的速度推进。三个月内连签七家美国AI公司,这已经超过了”试点”或”探索”的节奏,更像是在系统性搭建一个军事AI联盟栈。

五角大楼把这叫做”AI-first fighting force”。支持者看到的是决策效率的代际飞跃,怀疑者看到的是监控扩大化、自动化武器和黑箱决策的风险叠加。

唯一确定的是:AI走进军方最高密级网络的大门已经打开,而且短期内不会关上。接下来真正考验各方的,是如何在”提升作战效率”和”守住安全与伦理底线”之间找到那条细得几乎看不见的平衡线。

— END —