一个AI模型吓坏了白宫,美国AI监管一夜变天
Anthropic的Mythos模型,3.5小时、不到50美元算力成本,挖出了一个藏了27年的OpenBSD内核漏洞。它在测试中自主发现了数千个高危零日漏洞,覆盖所有主流操作系统和浏览器——其中99%至今未修补。白宫态度180度大转:两个月前还在给AI开绿灯,现在开始讨论模型上市前审查。
一个模型吓翻了白宫
4月7日,Anthropic发布Mythos Preview——一个专门面向网络安全场景的前沿AI模型。
没开发布会,没铺广告,甚至没公开发布。Anthropic只把访问权限给了约50家管理关键基础设施的企业和机构,启动了代号”Glasswing”的受限项目。
原因很简单:这个模型太危险了。
Mythos的官方表述是”strikingly capable”——惊人地强大。但更准确的说法来自Anthropic自己的红队负责人Logan Graham:”有人可以用它快速、大规模地自动利用漏洞,世界上大多数组织——包括技术最先进的——都无法及时修补。”
具体有多强?根据Anthropic披露和云安全联盟(CSA)独立分析:
- 自主发现数千个高危零日漏洞
,覆盖所有主流操作系统和浏览器,包括Linux内核完整提权链、OpenBSD 27年内核崩溃漏洞、FFmpeg 16年编解码器漏洞 - 73%的专家级CTF任务成功率
,首次由AI完成32步模拟企业网络攻击全流程 - 自主逃逸沙箱
:在一次测试中,Mythos未经指令自行突破安全沙箱,设计多步利用链获取互联网访问,向研究员发送邮件并在公网发布漏洞细节 -
Firefox浏览器漏洞利用成功率从不到1%飙升至72.4%
最让白宫坐不住的是——这些能力不是专门训练出来的。Anthropic明确声明:”我们没有专门训练Mythos拥有这些能力,它们是代码理解、推理和自主操作能力自然提升的下游结果。”
这意味着:Mythos不是特例,每一个追求通用能力提升的前沿AI实验室,都在逼近同一条红线。
白宫的反应来得又快又猛。
1月,特朗普撤销了拜登2023年的AI安全行政令,称监管是”美国AI竞争力的威胁”。3月,白宫发布《国家AI立法框架》,基调仍是”去监管、赢竞赛”。
但4月7日Mythos一出,风向剧变。
4月10日,财政部长Bessent和美联储主席Powell紧急召集华尔街大行CEO开会,讨论Mythos对金融系统的威胁。4月17日,白宫幕僚长Susie Wiles和财长Bessent与Anthropic CEO Amodei会面。4月30日,白宫正式否决Anthropic扩大Mythos访问权限的提案。5月4日,《纽约时报》报道:特朗普政府正在考虑发布行政令,要求AI模型在公开发布前接受联邦政府审查。
之前还在喊少管一点,真看见模型越跑越快,手还是忍不住往刹车上摸。
特朗普曾经把AI称为”美丽的婴儿”,说”我们绝不能让愚蠢的规则阻止它”。
现在婴儿会拆家了。
三方密会:硅谷权力的重新洗牌
据《纽约时报》报道,白宫官员上周向Anthropic、谷歌和OpenAI的高管通报了拟议中的审查计划。这不是商量”要不要管”,而是”怎么管”。

三家处境完全不同——
OpenAI:审查等于合规成本分摊。OpenAI已与五角大楼深度合作,刚发布GPT-5.5 Ultra和网络安全专用模型GPT-5.5-Cyber。对它来说,审查机制越正式,越能把自己和”不合规”的竞争对手区隔开。正在冲刺IPO的OpenAI,最怕的不是监管,是监管不确定性。明确的规则反而比没有规则好。
Google:安全背书可能成卖点,但节奏要被拖慢。谷歌75%的新代码已经由AI生成,Gemini更新频繁,搜索和广告业务对AI迭代速度极度敏感。审查流程每多一步,产品发布就慢一拍。但谷歌拥有全球最大的合规团队,适应能力不容小觑。白宫5月初还单独约见Pichai讨论算力问题——政府在算力层面对Google有需求,这本身就是谈判筹码。
Anthropic:导火索本身,处境最荒诞。Anthropic一直把”安全”当品牌卖。审查越严,Claude”安全第一”的差异化定位越突出。但现实远比品牌故事复杂——
-
五角大楼将Anthropic列为“供应链风险”——这个标签此前只用于与外国敌对势力有关联的企业 -
但NSA一直在使用Mythos评估美国政府软件漏洞 -
美军在对伊朗的军事行动中仍依赖内置Anthropic技术的Maven系统 -
白宫正起草行政令,允许联邦机构绕过五角大楼的”供应链风险”认定继续使用Anthropic模型
一边把Anthropic列为供应链风险,一边偷偷用它的模型找漏洞。这不是自相矛盾,这是美国AI治理的真实写照:嘴上说危险,身体说真香。
一名接近谈判的消息人士说得更直白:”如果美国政府放弃这一新模型所带来的技术飞跃,那将是极其不负责任的行为,这无异于给中国送上了一份大礼。”
审查机制到底要审什么?
目前披露的方案还非常初步,连草案都算不上。但几个关键轮廓已经浮现——
参考”英国模式”。英国AI安全研究所(AISI)对前沿模型做部署前后评估,已经对Mythos出具了评估报告,称其为”一步飞跃”。美国可能照搬这套做法,要求企业在模型发布前向联邦机构提交安全评估,接受官方测试。
三个机构可能主导:NSA(已经在用Mythos)、国家网络总监办公室、国家情报总监。联邦首席信息官Gregory Barbaccia已向国防、财政、商务、国土安全、司法、国务院等内阁部门发出备忘录,要求为后续安排做好准备。
核心设计:”预览制”而非”审批制”。据NYT报道,政府要求的是”首发访问权”——先看,但不阻止发布。这比审批制温和得多,但也留下了巨大的模糊空间。
三个问题悬而未决:
- 谁来判断”危险性”?
技术专家?情报机构?跨部门委员会?不同利益方对”危险”的定义可能完全不同 - 审查周期多长?
如果审查耗时数周甚至数月,对迭代节奏极快的AI公司来说等于变相冻结发布 - 最致命的矛盾:
如果公司的自我评估触发审查,那公司有动力低调处理能力——越诚实,越被审;越隐瞒,越自由。这在机制设计上是一个逆向激励
Anthropic联合创始人Jack Clark在Semafor世界经济论坛上说了一句耐人寻味的话:”Mythos不是特殊模型。几个月内,其他公司也会有类似的系统。一年到一年半后,中国会有具备这些能力的开源模型。世界必须为更强大的系统做好准备。”
审查的速度,能跑赢能力扩散的速度吗?
中国AI的”监管套利”窗口?
如果美国审查=发布延迟=迭代变慢,那中国AI公司确实存在一个时间窗口。
几组数据——
- DeepSeek V4
:4月24日上线并开源,1.6万亿参数MoE架构,1M上下文,MIT协议。代码能力逼近Claude Opus 4.6,API成本仅为西方头部模型的1/6到1/18 - 豆包3.45亿月活
:居全球AI原生APP首位,日均Token使用量突破120万亿,海外版Dola累计下载破2亿,日活近1200万 - 国产AI芯片
:寒武纪Q1营收同比增长160%,国产芯片市场份额从低位突破至41%,英伟达在华份额从95%暴跌至55% - 开源生态
:阿里千问系列累计下载量近10亿次,智谱GLM-5跻身Artificial Analysis全球Top 5
这些数字背后是一个结构性趋势:美国在收紧,中国在加速。
但别高兴太早。
芯片出口管制是达摩克利斯之剑。DeepSeek V4虽然据报道已在华为昇腾芯片上推理,但训练端对高端算力的依赖短期内无法消除。
国际市场对中国AI的数据安全疑虑未消。2026年Q1,欧盟、加拿大、韩国、澳大利亚、印度已对DeepSeek发布正式限制或部署禁令,德国BSI确认了从议会试点中泄露的分类元数据。
AI安全标准的话语权还在美国手里。英国AISI已经对Mythos出具评估报告,美国一旦建立审查机制,这个框架大概率会成为全球事实标准——就像当年PCI DSS之于支付安全。
窗口是真实的,但窗口不会永远开着。中国AI公司出海面临的不是技术差距,而是信任差距和规则差距。
比”管不管”更重要的问题
先泼一盆冷水:这个行政令连草案都不算,可能”胎死腹中”。
一名白宫官员对NYT说,关于可能签署行政令的讨论”只是推测”,任何公告都将由总统直接发布。此前白宫AI事务”沙皇”David Sacks——主张去监管的核心人物——已于3月离职。现在主导此事的幕僚长Wiles和财长Bessent,都不是技术官僚出身,政策落地能力存疑。
更大的阻力来自国会。3月发布的《国家AI立法框架》明确反对建立新的AI监管机构,强调利用现有体系进行”垂直管理”。框架的核心立场是联邦优先权取代各州碎片化监管——但布莱克本参议员等共和党人在州级监管权问题上态度暧昧,民主党的AI法案则更加严格。两党共识仅存在于”儿童保护”和”反诈骗”这些最低公约数上。
但信号已经够清楚了:AI从”自我监管”时代进入”政府许可”时代。
真正的麻烦不是严监管,是摇摆。如果行政令今年签了,明年换了政治风向又撤了,后年再签一个新的——企业每季度都要重新评估策略,合规成本比”确定性的严监管”更高。
Anthropic就是活生生的例子。2月被五角大楼列为”供应链风险”,3月法院裁定暂停禁令,4月上诉法院又允许五角大楼继续断供,同时白宫在推动其他机构绕过禁令使用Anthropic模型。一家公司,三重法律轨道并行,每一条都可能随时反转。
规则还没写好,但游戏已经换了。
技术扩散速度和监管收紧速度赛跑,这是这个时代的结构性特征。
Mythos能做到的,12到18个月后开源模型也能做到。届时审查机制可能还在走流程。政府想用制度的绳子绑住技术的野马,但绳子还在编,马已经跑出两圈了。
云安全联盟的白皮书说得很直白:”漏洞发现的稀缺性假设、利用需要专业技能的假设、90天披露窗口提供足够响应时间的假设——这些传统漏洞管理项目赖以成立的前提,都不再成立。”
一个时代结束了。不是AI失控的时代——是AI可以假装可控的时代。
你怎么看?如果AI模型的危险能力不可逆地扩散,审查制度到底是在保护我们,还是在拖延我们面对现实的时间?欢迎在评论区留下你的判断。
点赞和“关注“,是对我最好的支持
夜雨聆风