Anthropic本周发布了新模型Claude Mythos Preview,然后做了一件商业逻辑上极其反常的事:主动限制发布,理由是这个模型的网络攻击能力太强。
Mythos在测试中发现了数千个零日漏洞,其中很多已经存在了一二十年没被发现,包括以安全著称的OpenBSD中一个藏了27年的漏洞。Anthropic强调这些能力不是专门训练出来的,而是模型在代码推理能力提升过程中自然涌现的。模型目前只开放给12家核心合作伙伴(Amazon、Apple、Microsoft、CrowdStrike等)和另外约40家关键基础设施组织,用于防御性安全工作,这个项目叫Project Glasswing。

事情真正炸裂的部分是:美国财政部长Bessent和美联储主席Powell本周在财政部总部专门召集了花旗、摩根士丹利、美银、富国、高盛的CEO讨论此事(摩根大通的Dimon受邀但未出席)。财长+央行行长联手关注一个AI模型——这种配置通常只在系统性金融风险场景下出现。
几个值得深想的点:
一家AI公司主动给自己的产品踩刹车,这本身就是最强的风险信号。不是外部监管逼的,是他们自己评估后认为不能广泛发布。
监管层的反应说明一个传导链条已经被正式认可:AI网络攻击能力→金融基础设施安全→系统性风险。这是美国金融监管体系第一次将前沿AI的攻击能力纳入系统性风险框架。
还有一个容易被忽略的背景:Anthropic目前正在和五角大楼打官司,因为坚持对军事用途设限而被列入供应链风险黑名单。一边被军方打压,一边主动向监管层展示负责任姿态——这家公司在走一条非常微妙的路线。

这不是一个”AI有风险”的泛泛警告,而是一个具体的、正在发生的范式转变。后续的监管框架、银行网络安全资本要求、以及AI能力的准入控制,都会跟着变。
夜雨聆风