五角大楼与AI巨头的荒诞剧:一边打官司,一边偷偷用人家的模型

当一家AI公司因为”太危险”被拒绝全面合作,却转而成为情报机构的心头好——这不是谍战片的桥段,而是2026年华盛顿正在上演的真实剧情。技术的边界,从来不在代码里,而在权力的博弈中。
Mythos:一个被刻意隐藏的AI武器
Anthropic 本月发布的 Mythos Preview,本应是AI安全领域的一个里程碑。这个被公司称为”前沿模型”的系统,专为网络安全任务设计,能力之强甚至让 Anthropic 自己感到不安。
公司的说法是:Mythos 太擅长网络攻击了,不能公之于众。
这不是谦虚。Anthropic 将 Mythos 的访问权限严格限制在约 40 家组织,且只公开了其中 12 家的身份。这种近乎神秘的发布方式,在AI行业堪称前所未有——通常,公司恨不得让全世界都用上自己的最新模型。
但 Mythos 不同。它被设计用来:
-
扫描网络环境中的可利用漏洞 -
识别复杂系统中的安全弱点 -
模拟高级持续性威胁(APT)的攻击路径
换句话说,这是一个既能当盾牌、也能当矛的AI系统。在正确的人手中,它可以帮助企业加固防线;在错误的人手中,它可能成为有史以来最强大的网络攻击工具。
五角大楼说”不”,NSA说”要了”
就在 Mythos 发布的同时,Anthropic 与五角大楼的关系正处在一个滑稽的冰点。
事情的起因是,美国国防部将 Anthropic 列为 “供应链风险”。官方理由是:Anthropic 拒绝让军方官员 unrestricted 访问其模型的全部能力,尤其是 Claude 在大规模国内监控和自主武器开发方面的应用。
Anthropic 的立场很鲜明:我们有红线。不对大规模监控开放,不对自主武器开放。
五角大楼的回应也很直接:那你就是风险。
但剧情在这里出现了一个荒诞的转折——据 Axios 报道,美国国家安全局(NSA)正在使用 Mythos Preview。而且用途恰恰就是 Anthropic 最担心的那种:扫描环境、寻找可利用漏洞。
这不是猜测。英国AI安全研究所已经公开确认自己拥有 Mythos 的访问权限,而 NSA 的身份则是通过知情人士透露的。Anthropic 对此拒绝置评,但这种沉默本身就是一种确认。
| 冲突双方 | 表面立场 | 实际行动 |
|---|---|---|
| 五角大楼/国防部 | Anthropic 是供应链风险 | 通过 NSA 使用 Anthropic 最敏感的模型 |
| Anthropic | 拒绝为监控和武器开发开放模型 | 向情报机构提供 Mythos 访问权限 |
| NSA | 未公开承认 | 正在使用 Mythos 进行漏洞扫描 |
法庭上的攻防与会议室里的握手
更具戏剧性的是时间线。
就在 NSA 使用 Mythos 的消息传出前几周,五角大楼正在法庭上争辩 Anthropic 的AI工具可能威胁国家安全。政府的逻辑是:如果外国势力通过 Anthropic 的模型获得先进AI能力,将对美国构成风险。
但在另一个平行的现实里,同一批政府人员似乎得出结论:这个风险值得冒,只要是我们自己在用。
这种精神分裂式的政策立场,暴露了华盛顿在AI治理上的深层困境:
一方面,政客们热衷于将AI描绘成国家安全威胁,以此为由推动监管和出口管制。
另一方面,情报机构和军方比任何人都更渴望获得最强大的AI工具,哪怕这些工具来自它们公开批评的公司。
这不是虚伪,这是现实主义——在国家级竞争中,技术优势比道德一致性更重要。
Anthropic 的政治 thawing
细心的观察者会注意到,就在 Mythos 使用传闻曝光的同一天,另一则消息悄然流出:Anthropic CEO 达里奥·阿莫迪(Dario Amodei)在白宫与高层官员会面。
据报导,阿莫迪上周五会见了白宫幕僚长苏西·威尔斯(Susie Wiles)和财政部长斯科特·贝森特(Scott Bessent)。白宫称这次会面”富有成效”。
“富有成效”是一个精心挑选的外交辞令。在华盛顿,它的含义通常是:双方找到了某种交易空间。
对于 Anthropic 来说,这笔交易的必要性不言而喻。被五角大楼贴上”供应链风险”标签,不仅影响政府合同,更会在私营部门引发寒蝉效应。没有哪家Fortune 500公司愿意使用被国防部警告的AI供应商。
而对于特朗普政府来说,Anthropic 是一个难以替代的资产。在 OpenAI 日益商业化、与微软深度绑定的背景下,Anthropic 是少数仍坚持”AI安全”叙事的前沿实验室。政府需要它,即使它偶尔不听话。
AI 安全的悖论:越危险越值钱
Mythos 事件揭示了一个AI行业的核心悖论:一个模型被认为越危险,它对某些客户就越有价值。
Anthropic 对 Mythos 的保密处理,本意是负责任的表现。但结果是:
-
40 个精选客户获得了独家访问权 -
这种稀缺性反而让 Mythos 成为身份象征 -
情报机构和顶级网络安全公司趋之若鹜 -
公众对 Mythos 的真实能力一无所知,无法参与监督
这是一个经典的安全困境:为了控制风险而限制透明度,但限制透明度本身创造了新的权力不对称。
| Mythos 的访问层级 | 已知成员 | 推断成员 |
|---|---|---|
| 公开确认 | 英国AI安全研究所等 12 家机构 | — |
| 未公开但据报 | — | NSA |
| 剩余约 25 家 | — | 可能包括其他五眼联盟情报机构、顶级网络安全公司 |
技术中立性的神话
这场风波还挑战了一个常见的科技叙事:技术是中立的,关键在于使用方式。
如果 Mythos 真的如 Anthropic 所描述的那样危险——能够自主发现和利用复杂漏洞——那么它的”中立性”就是一个谎言。有些工具天生就是双刃剑,而且两边都极其锋利。
Anthropic 试图通过访问控制来解决这个问题:只允许”可信赖”的组织使用 Mythos。但这种信任的标准是什么?由谁来决定?这些问题从未被公开讨论。
当 NSA 被列为”可信赖用户”时,讽刺达到了顶点。这是一个被斯诺登揭露曾对全球通信进行大规模监控的机构,现在它获得了有史以来最先进的网络攻击AI之一。
监管的真空与权力的游戏
在所有这些戏剧性事件背后,是一个更大的结构性问题:美国对前沿AI模型的监管几乎为零。
没有法律要求 Anthropic 披露 Mythos 的客户名单。
没有机制监督这些客户如何使用模型。
没有标准评估一个AI系统是否”太危险而不应发布”。
Anthropic 的自我约束——限制在 40 家客户——是自愿的、可撤销的、不受审计的。明天的管理层可能决定将访问权限扩大到 400 家,或者完全公开模型,而没有任何法律障碍。
在这种监管真空下,AI安全的决策权实际上落在了少数几家私营公司和未选举产生的情报官员手中。这不是民主治理,这是技术封建主义。
未来会怎样?
短期来看,Anthropic 与特朗普政府的关系正在thawing(解冻)。白宫会面、NSA 使用 Mythos 的消息”恰好”在同时间段流出——这些不太可能是巧合。更可能是一场精心编排的和解叙事:五角大楼保留面子(维持”供应链风险”标签),Anthropic 获得实际利益(政府合同和默许),NSA 拿到它想要的工具。
中期来看,这种模式可能会被复制。其他AI公司也在开发具有双重用途潜力的模型——能够用于防御,也能够用于攻击。它们会看着 Anthropic 的例子,学习如何在”拒绝合作”和”有限合作”之间走钢丝。
长期来看,真正的风险不是某个特定模型落入”错误”之手,而是整个AI行业正在形成一种文化:用”安全”的名义行保密之实,用”责任”的修辞掩盖权力的集中。
当 Anthropic 说 Mythos “太危险而不能公开”时,它可能是对的。但当它同时向世界上最具攻击性的情报机构提供访问权限时,它失去了道德高地。
技术本身或许中立,但技术的选择从来不中立。
夜雨聆风