当AI被递上一把枪——五角大楼、七大巨头与一场关于底线的战争
“科学无疑是一种强大的力量,但它究竟是带来幸福还是灾难,取决于人类自己。”
—— 阿尔伯特·爱因斯坦
一、一条坦诚到令人不安的推文
3月1日,OpenAI CEO萨姆·奥尔特曼(Sam Altman)在X上开放提问,直面五角大楼协议引发的批评。一位用户问他:”为什么签得这么急?观感显然不好。”
Sam Altman @sama
原文:
“The timing was rushed and the optics are not great. We really wanted to de-escalate the situation, and we think the deal on the table is a good one. If we are right, this will lead to a de-escalation between the War Department and the industry, and we’ll look like geniuses. If not, we’ll keep being called hasty and reckless. I don’t know which way it’ll land.”
译文:
“节奏确实仓促,观感也不好。我们真的很想给局势降温,而且我们认为摆在桌上的这份协议是好的。如果我们判断对了,这能促成战争部与行业之间的降级,我们会看起来像天才。如果不是,我们会继续被形容成仓促、不谨慎。我不知道最后会落在哪边。”
互动数据:约2400 回复 · 6800 转帖 · 31000 喜欢 · 420万 查看
这条推文的背景是:48小时前,AI安全领域的领军企业Anthropic刚刚被五角大楼列入黑名单——原因不是技术缺陷,不是安全漏洞,而是它拒绝取消两条底线:AI不能用于完全自主杀人,不能用于大规模监控本国公民。而在Anthropic被”处刑”的同一天,OpenAI火速签下了替代合同。
一家公司因为坚持”AI不应自主决定杀人”而被列为国家安全威胁。这是2026年春天最荒诞,也最重要的一件事。
为什么?因为五角大楼刚刚宣布,它与七家科技巨头——SpaceX、OpenAI、Google、NVIDIA、Microsoft、Amazon、Reflection——达成了协议,将这些公司的AI部署到美军最机密的网络中。130万国防部人员已经在使用AI平台。麻省理工科技评论报道,AI已经参与了军事打击决策。
这不是科幻。这是正在发生的现实。而它跟你我每一个人都有关。
二、谁有权给AI画红线?
1. 两条底线与一场最后通牒
先说清楚Anthropic到底做了什么”不可饶恕”的事。
2025年7月,Anthropic与五角大楼签了一份2亿美元的合同,其AI模型Claude成为首个部署在美军机密网络中的AI。合作本身一直很顺利。问题出在续约谈判上——五角大楼要求Claude可用于”一切合法用途”(all lawful purposes),这意味着军方可以自行决定如何使用AI,Anthropic无权过问。
Anthropic的CEO达里奥·阿莫代伊(Dario Amodei)说:可以用于军事辅助分析、可以用于情报处理、可以参与有人类监督的打击决策。但两条不行:
AI不能在没有人类监督的情况下自主选择目标并开火。
AI不能用于对美国公民进行大规模监控。
国防部长赫格塞斯(Pete Hegseth)给了一个好莱坞式的最后通牒:2月27日之前,签字,否则后果自负。
Anthropic拒绝了。后果来了——被贴上”供应链风险”的标签。
用日常的话说:你去一家餐厅吃饭,厨师说”我可以做任何菜,但有两样不做——河豚和过期食材”。餐厅老板说:”你不做就是对我的安全威胁。”然后把你的照片贴在门口,告诉所有街坊邻居”这个人不可靠”。
2. “供应链风险”——一个被篡改的标签
“供应链风险”这个标签的来头不小。它诞生于9/11之后,专门用来对付外国公司的——比如中国的华为和中兴,因为担心它们的设备里可能藏着外国政府的后门。
在Anthropic之前,这个标签从未用于任何一家美国公司。
而且,用于Anthropic的理由不是间谍活动,不是技术漏洞,不是外国影响。联邦法官丽塔·林(Rita Lin)在裁决书中写道:政府自己的文件显示,这个标签是由Anthropic”通过媒体日益敌对的方式”触发的——也就是说,因为Anthropic公开解释了它为什么拒绝签字。
更讽刺的是:华盛顿月刊的调查揭露,安全评估是在黑名单决定之后才补做的。先定罪,后找证据。而政府律师在法庭上被追问”Anthropic到底能怎么破坏军事系统”时,支支吾吾说”也许可能通过软件更新”,但承认无法确认Anthropic是否具有这种能力。
与此同时,五角大楼一边在法庭上说Claude是安全威胁,一边在伊朗战争和委内瑞拉行动中继续使用Claude——因为替代方案还没准备好。
法官用了一个联邦法官极少使用的词:”奥威尔式”。她说:”没有任何法律条文支持这样一个奥威尔式的概念——一家美国公司可以因为与政府意见不合而被标记为美国的潜在敌人。”
用日常的话说:这就像一个学生因为拒绝帮老师作弊,被校长以”校园安全威胁”的名义记了大过,还通知所有老师不许跟他说话。而那个”安全威胁”的表格,本来是用来登记校外小混混的。
3. OpenAI的选择:妥协、护栏与一个”不知道”
24小时内,OpenAI签下了合同。它设了三条红线:禁止大规模国内监控、禁止自主武器、禁止高风险自动决策(比如”社会信用”式系统)。
看起来跟Anthropic的立场差不多?但有一个关键区别:Anthropic保留了对具体使用场景的否决权,而OpenAI把约束写进了合同,由现行法律来执行。
批评者立刻指出了漏洞:合同中提到情报活动须符合”行政命令12333″——这部法令常常被解读为NSA通过境外截获包含美国公民信息的依据。Techdirt创始人迈克·马斯尼克(Mike Masnick)直言:”协议并未排除国内监控。”
OpenAI的回应策略很技术化:我们不把模型部署到武器或传感器上(不上”边缘设备”),只部署在云端。模型在我们的服务器上运行,我们有人员在场,可以实时监控和干预。他们说:”部署架构比合同措辞更重要。”
这就像一把枪的设计图和一把真枪的区别——你有设计图和有人把真枪递到你手上,是两回事。OpenAI说:”我们只给了设计图,没给真枪。”但问题是,五角大楼拿着设计图,可以自己造枪。
Altman在X上的坦诚让人意外:”我不知道最后会落在哪边。”一个手握全球最强大AI之一的CEO,承认他不确定自己做了正确的选择。这种坦率至少值得尊重。但坦率不能替代护栏。
4. 130万人的”新同事”
当法律条文和政治博弈占据头条的时候,一个更安静但更重要的变化正在发生。
五角大楼的AI平台GenAI.mil已经运行了五个月,130万国防部人员在使用。麻省理工科技评论报道,AI已经被用于军事打击决策。Claude在委内瑞拉行动中被部署,在伊朗战争中也在使用。现在,七家科技巨头的AI即将进入美军最机密的网络。
这意味着什么?意味着一个在德克萨斯州基地的年轻军官,可能正在用一个AI助手来分析卫星图像、判断某个建筑里是武装分子还是平民家庭。他可能信任AI的判断,因为AI比他更快、更准确。但AI不是完美的——它是概率机器,它输出的是”最可能的答案”,不是”正确的答案”。
当”最可能”而不是”确定”决定了一个人是生是死,谁来承担那个”万一错了”的代价?
三、历史的回响:类似事件的先例与启示
历史先例对照
案例一:奥本海默与原子弹(1945年)
- 背景:
1945年,物理学家奥本海默领导曼哈顿计划造出了原子弹。科学家们创造了人类历史上最强大的武器,但他们无法控制这件武器将被如何使用。 - 相似之处:
科技的创造者被迫面对自己作品的使用方式,而政府坚持由政治家而非科学家来决定武器的使用。 - 不同之处:
当年的科学家是主动参与武器研发的;而今天的AI公司最初开发的是通用工具,军事化是后来被要求加入的。而且核武器的使用门槛极高(需要总统授权),AI的使用门槛几乎为零(一个军官点击按钮即可)。 - 结果:
核武器改变了国际秩序,催生了军备控制体系。但AI武器至今没有任何国际条约约束。 - 启示:
当一项技术的破坏力与使用便利性同时增长,而缺乏相应的治理框架,危险将指数级放大。
案例二:Google员工的”Project Maven”反抗(2018年)
- 背景:
2018年,Google与五角大楼签订合同,为无人机图像分析提供AI技术。约4000名Google员工签署请愿书抗议,十多名员工辞职。最终Google宣布合同到期后不再续签。 - 相似之处:
科技公司因AI军事化而引发关于”科技公司是否应该为军事项目提供AI”的公共辩论。 - 不同之处:
Google员工的反抗是自下而上的(员工施压管理层),而Anthropic的坚持是自上而下的(CEO代表公司立场)。当年的政府没有报复Google,今天的政府则直接将Anthropic列入黑名单——政治环境已经发生了根本性变化。 - 结果:
Google事件后,AI军事化的步伐并未减缓,反而加速了。但至少留下了”科技公司可以拒绝”的先例。Anthropic事件正在改写这个先例。 - 启示:抵抗的空间在缩小。2018年,科技公司还可以说”不”;2026年,说”不”的代价是经济生存。
历史的教训
从奥本海默到Google再到Anthropic,贯穿始终的是同一个问题:技术的创造者是否有权(或者有义务)限制其技术的使用方式?
五角大楼的类比是”波音不需要在每次空袭前打电话征得同意”。但AI不是飞机。飞机制造出来就定型了,它的功能是固定的。而AI是一个会持续学习、持续判断的系统——它更像一个士兵而不是一件武器。你不需要在每次使用前征求波音的同意,但你确实需要确保那个士兵遵守交战规则。
核心洞察:真正的问题不是”谁拥有AI”,而是”谁有权为AI画红线”。当政府宣称这个权力只属于它自己,并且用惩罚来证明这一点,我们离”AI想做什么都可以,只要政府说合法”就只有一步之遥了。
四、那把钥匙,还在谁手里?
七家科技巨头的AI即将进入五角大楼最机密的网络。Anthropic仍在黑名单上,但它打了一场法律仗——联邦法官站在了它这一边。
阿莫代伊没有退缩。奥尔特曼承认了不确定性。法官说了”奥威尔式”这个词。前特朗普AI顾问说这是”地球上最严格的AI监管”——来自一个自称反监管的政府。
这些声音之所以重要,是因为它们证明了一件事:制衡还没有完全消失。
AI会不会杀人?这个问题太大了,没有人能给出确定的答案。但有一个问题更小,也更紧迫:当一家公司说”我的AI不应该在没有人类监督的情况下自主决定杀人”时,它应该因为这句话而被毁灭吗?
如果答案是”是”,那么AI的边界就不再是技术问题,而是权力问题。而权力,从来不会自我约束。
爱因斯坦说过,科学是强大的力量,但它带来什么,取决于人。
今天,这份”取决于”正在被重新定义。有人在坚持,有人在妥协,有人在旁听。但没有人能置身事外。
愿那些在权力面前守住底线的人不至于被碾碎。
愿技术的进步,终将服务于生而非死。
夜雨聆风