乐于分享
好东西不私藏

五角大楼AI部署深度解读 · 2026.05.03

五角大楼AI部署深度解读 · 2026.05.03

Florx热点追踪 · 2026年5月3日


📌 开篇

2026年5月1日,美国国防部做了一件从未做过的事——把AI大模型接入了最高涉密级别的军事网络。

七家科技巨头——英伟达、微软、亚马逊、OpenAI、Google、xAI和Reflection AI——拿到了这份框架协议的入场券。130万国防部人员将借助GenAI.mil平台,在IL6(机密级)和IL7(绝密级)网络中使用AI进行情报分析、作战规划、网络防御和通信截获翻译[TechCrunch][The Verge]。这不是试点,不是白皮书,而是一次系统性的军事AI基础设施升级。

合同金额据信在数十亿美元量级,单家公司5-15亿美元[CNN]。而Anthropic——OpenAI之外最头部的AI公司——因为拒绝撤除安全护栏,成了唯一缺席者。

这不仅仅是一笔政府采购。这是AI进入战争决策核心的里程碑。


📊 正文

一、七巨头分蛋糕:谁干什么?

先看清楚这份合同的架构。这不是「谁模型强谁拿单」的故事,而是一个分工明确的系统工程。

英伟达提供算力底座——GPU集群、推理加速和CUDA生态。无论哪家公司的模型最终跑在五角大楼的服务器上,底层芯片大概率是英伟达的。在AI军备竞赛中,英伟达不是参赛选手,它是赛道本身[The Verge]。

微软和AWS分别提供Azure Government和GovCloud云基础设施。这两家承担的是「涉密环境的房东」角色——IL6和IL7级别的网络需要物理隔离的云环境,目前美国只有这两家通过了最高等级的FedRAMP认证。

OpenAI和Google是模型能力的主要提供者。OpenAI提供定制安全版本的GPT系列,Google则将Gemini模型与Google Cloud for Government打包。这两家的模型将直接赋能情报分析、文档解读和作战辅助。

xAI的入选颇具意味。马斯克正同时与OpenAI打官司,但他旗下的Grok模型已经拿到了通往五角大楼的钥匙。在华盛顿,利益永远比分歧持久。

Reflection AI是最值得研究的变量。这家由前Anthropic安全团队核心成员创办的公司,定位为「安全可控的AI对齐」。它的入选暗示了五角大楼的真实需求:不是不要安全护栏,而是要「自己能控制」的安全护栏[The Verge]。

二、IL6和IL7意味着什么?

美国国防部的信息安全等级从IL1到IL7逐级递增。IL6对应Secret(机密级),IL7对应Top Secret(绝密级)。这不是普通的政府IT项目——这是核武器指挥、特种作战计划、信号情报和卫星侦察数据栖身的网络环境。

在此之前的GenAI.mil平台主要运行在IL4和IL5环境中,处理的是非密或敏感但非密信息。此次升级到IL6/IL7,意味着AI模型将直接接触到美军最核心的作战数据和情报来源[TechCrunch]。

技术部署方案包括:气隙隔离(air-gapped)环境——模型在完全不连接公共互联网的服务器上运行;数据驻留保证——训练和推理数据全部在涉密域内闭环处理;定制化模型版本——移除所有外部调用和数据回传能力[The Verge][Defense One]。

但一个根本性的矛盾在于:大模型的「聪明」来自海量数据和持续学习,而涉密网络的「安全」要求恰恰是数据隔离和信息封闭。 在一个与外界完全切断的环境中,模型的更新迭代、知识补全和性能优化都面临巨大挑战。这不是一个技术细节问题——它触及了AI军事化部署的核心悖论。

三、130万用户的AI军队

已有超过130万国防部人员在使用GenAI.mil平台[TechCrunch]。这是一个惊人的数字——它意味着AI不是实验室里的试验品,而是渗透到美军日常运作的基础工具。

根据Defense One的梳理,AI在涉密网络中的主要应用场景包括:

情报分析加速——AI辅助处理海量卫星图像、信号情报和开源情报,自动识别敌方部署模式和异常活动。过去需要分析师数天完成的图像比对,现在可以在数小时内给出初步结论。

作战规划辅助——兵棋推演场景生成与评估、多方案快速比对和风险评估、后勤供应链优化。AI不是替指挥官做决定,而是大幅扩展了指挥官在有限时间内能考虑的方案数量。

自然语言处理——截获通信的实时翻译和分析、外国技术文档的快速解读、涉密文档的智能检索。在多语言、多格式的情报海洋中,AI是最高效的「滤网」。

网络防御——涉密网络的入侵检测、代码审计和漏洞发现、攻击模式识别。这是AI在军事中最少争议也最迫切的应用方向。

决策支持——指挥官决策辅助系统的AI增强、战场态势感知和预测分析。也是最敏感、争议最大的领域。

这里需要厘清一个关键边界:五角大楼目前的部署定位是「AI辅助决策」而非「AI自主决策」。也就是说,AI提供建议和参考,最终决策权仍在人类指挥官手中。但这个边界在实际战场高压环境下能否被严格遵守,是所有人——包括五角大楼自己——都无法给出绝对保证的。

四、Anthropic缺席的深层信号

关于Anthropic被排除在外的讨论,大部分聚焦在「伦理坚守」的叙事上。但如果把视角拉远,这件事揭示的问题比一家公司的选择更深刻。

时间线是这样的:2025年底五角大楼要求不受限使用Anthropic模型→Anthropic拒绝→2026年2月五角大楼将Anthropic列为「供应链风险」→3月Anthropic赢得法院禁令→5月1日签约名单公布,Anthropic缺席[TechCrunch]。

五角大楼将一家AI公司列为「供应链风险」——这是政府采购体系中最严重的标签之一,通常用于被外国政府控制或构成国家安全威胁的供应商。把这个标签贴在一家美国AI公司身上,仅仅因为它拒绝撤除安全护栏,传递的信号是:在五角大楼看来,「不配合」等于「不可靠」,而「不可靠」离「不安全」只有一步之遥。

这种逻辑在传统军采中或许说得通——你不会要一架不愿意按你需求交付的战斗机。但AI不是战斗机。大模型的行为不是完全可预测的,安全护栏不是简单的「功能开关」,而是模型与人类价值观对齐的核心机制。要求「不受限使用」,本质上是在要求一个不可完全预测的系统在没有安全网的情况下运行。

Reflection AI的入选让这个矛盾更加鲜明。这家公司由前Anthropic安全团队核心成员创办,提供「安全可控的AI对齐」方案[The Verge]。翻译成白话:五角大楼不是不要安全措施,而是要一种自己能定义边界的安全措施。这种需求的合理性值得讨论,但它至少说明——Anthropic的问题不是「太安全」,而是「安全标准的定义权不在自己手里」。

五、AI军备竞赛的加速器

五角大楼此举的国际影响可能比合同本身更深远。

中国正在密切关注美国的军事AI部署。虽然中国军方在AI应用方面同样积极,但在大模型涉密网络部署上,美国这次走在了前面。可以预见,这将加速中国、俄罗斯等国的对等投入——AI军备竞赛不是「会不会发生」的问题,而是「加速度有多大」的问题。

欧盟的反应同样值得关注。欧洲在AI监管方面一直走在前列(《AI法案》2024年已生效),但军事AI的国际规范至今仍是空白。五角大楼的部署可能成为欧盟推动军事AI国际伦理框架的催化剂,也可能暴露出欧美在AI军事化问题上的深层分歧——美国在「做」,欧洲在「说」。

北约盟国面临的问题更实际:如果美军的AI能力在联合作战中成为核心优势,盟国军队是否需要升级自身的AI系统以保持互操作性?如果是,他们将依赖美国的AI基础设施到什么程度?这不是技术问题,而是联盟政治问题。

六、监管真空中的狂奔

五角大楼的AI部署速度明显快于监管框架的建立。

参议院军事委员会主席对协议表示「审慎支持」,但部分国会议员已对AI在军事决策中的角色表达担忧,要求国防部提交AI使用伦理框架报告。民权组织质疑AI辅助军事决策的透明度,电子前线基金会(EFF)发表声明要求公开AI使用范围。隐私和公民自由监督委员会(PCLOB)要求介入审查[CNN]。

目前已知立法动向包括:《军事AI负责任使用法案》可能在近期提出,要求国防部在90天内提交详细部署计划,并设立独立的AI军事应用监督委员会。但在法案通过之前,五角大楼已经签了合同,部署已经启动。

这是技术发展超越治理能力的经典案例——只不过这次赌注不是市场份额,而是战争与和平。


💡 观点

五角大楼正在做一件历史上所有军事强国都做过的事:用最新技术武装自己,同时假装知道如何安全使用它。

我的判断基于三个层面。

第一,从技术现实看,这次部署的价值被高估了。 在气隙隔离的涉密网络中,大模型的知识更新是一个无解难题。今天的GPT或Gemini之所以「聪明」,很大程度上是因为训练数据截止时间相对较近,且能通过工具调用获取实时信息。在完全封闭的环境中,模型的知识将被冻结在部署那一刻,随时间推移逐渐过时。这不是bug——这是大模型架构与涉密网络安全要求的根本矛盾。情报分析需要的是最新信息,而封闭网络中的AI最缺的恰恰是最新信息。

第二,从治理角度看,最大的风险不是AI「叛变」,而是人类「盲信」。 当130万国防部人员习惯了AI辅助决策,当AI的建议在情报分析和作战规划中成为「第一参考」,人类决策者对AI的依赖会逐渐从「辅助」滑向「默认接受」。这种依赖是无声无息的——没有人会正式授权AI做最终决策,但越来越多的人类决策者会发现,反驳AI的建议需要的认知成本远高于接受它。这才是AI军事化的真正危险:不是机器取代人,而是人主动把判断权让渡给机器。

第三,从国际格局看,AI军备竞赛正在进入一个没有护栏的赛道。 五角大楼的部署向全球传递了一个明确信号:美国愿意在最高涉密环境中使用AI。这不会让其他国家退缩——只会让它们加速。当所有大国都在军事AI上全力投入,当AI系统之间的对抗成为实战的一部分,谁来确保对抗不会因为一个AI的误判而升级到不可控的层面?目前,没有任何国际机制能回答这个问题。

Reflection AI的存在说明五角大楼并非完全不在意安全——它只是在意「自己的安全标准」而非「AI公司设定的安全标准」。这种态度在短期内可以理解,但长期看,缺乏外部独立审查的安全标准,最终会退化为「自己给自己打分」。


🎯 结尾

AI走进了五角大楼的密室。七家科技公司拿到了入场券,一家因为坚持底线被关在门外。合同签了,钱花了,系统在跑。

真正的问题不是AI能不能用——而是当AI的建议成为战争决策的一部分时,谁来为后果负责?这个问题,目前没有答案。

你觉得军事AI需要国际监管吗?


参考来源

1. TechCrunch — *Pentagon inks deals with Nvidia, Microsoft and AWS to deploy AI on classified networks* (2026-05-01)

Pentagon inks deals with Nvidia, Microsoft, and AWS to deploy AI on classified networks

2. The Verge — *Pentagon taps OpenAI, Google, Nvidia, and more to bring AI to classified networks* (2026-05-01)

https://www.theverge.com/ai-artificial-intelligence/922113/pentagon-ai-classified-openai-google-nvidia

3. CNN — *Pentagon signs AI deals with major tech companies for classified network deployment* (2026-05-01)

https://www.cnn.com/2026/05/01/tech/pentagon-ai-anthropic

4. Defense One — *DoD’s AI on classified networks: What it means for warfighters* (2026-05-01)

https://www.defenseone.com/technology/2026/05/dod-ai-classified-networks/

5. TechCrunch — *Anthropic wins injunction against Pentagon’s “supply chain risk” designation* (2026-03)


*Florx热点追踪 · 每日深度解读AI行业最值得关注的信号*

— END —

免责声明:本文由AI辅助生成,仅供参考。