Anthropic 上周干了一件前所未有的事:造了一个 AI 模型,然后宣布不发布。
理由?太强了,怕出事。
这个模型叫 Claude Mythos,Anthropic 说它是「第一个有能力瘫痪财富 100 强公司、大规模攻击互联网基础设施、甚至渗透国家防御系统」的 AI 模型。
听起来像科幻电影?但美国财政部长 Scott Bessent 已经召集了各大银行高管开会讨论这件事,英国议员也紧急致信政府要求关注。
这不是演习,这是 2026 年 4 月正在发生的事。
到底发生了什么?
4 月 7 日,Anthropic 发布了一个叫 Project Glasswing(玻璃翼计划)的项目,向少数合作伙伴——包括 Nvidia、Google、AWS、Apple、微软——开放了 Claude Mythos Preview 的私密访问权限。(来源:Anthropic 官方公告)
这个模型被用于自动发现和利用网络安全漏洞。换句话说,Anthropic 造了一个能自主「黑」进系统的 AI。
但 Anthropic 强调:正因为这个能力太危险,他们选择不公开发布,只在严格控制的范围内,与顶级科技公司合作测试。
Anthropic CEO Dario Amodei 的态度是:我们有责任让世界知道这个级别的 AI 已经存在,但我们更有责任不让它落入错误的手中。
外界怎么看?
争议很大。
AI 批评者 Gary Marcus 直接开怼:「Dario 的技术功底比 Sam Altman 强得多,但显然也从同一所『炒作大学』毕业了。」(来源:The Guardian)
AI Now 研究所首席 AI 科学家 Heidy Khlaaf 博士也表示,Mythos 的能力「没有被充分证实」。
还有科技公关圈的人指出一个尴尬的巧合:Anthropic 4 月初刚刚意外泄露了 Claude 的部分源代码,一周后就宣布自己掌控着「能威胁世界的超级 AI」。
「换成任何一家大厂干这事,早被骂惨了。」一位不愿透露姓名的科技公关这样说。(来源:The Guardian)
这背后的商业暗战
Mythos 的发布时机很微妙。
就在同一周,OpenAI 向投资人发了一份备忘录,直接「开撕」Anthropic:(来源:CNBC, Bloomberg)
OpenAI 称自己的算力规模远超 Anthropic——计划 2030 年达到 30GW 算力,而 Anthropic 到 2027 年底预计只有 7-8GW OpenAI 首席营收官 Denise Dresser 指责 Anthropic「夸大了 80 亿美元的年化收入」 OpenAI 称 Anthropic「运行在一条小得多的曲线上」
Anthropic 也没闲着:
与 Google、Broadcom 签订芯片合作协议,扩大硬件供应 正在考虑自研 AI 芯片,摆脱对 Nvidia 的依赖(来源:CNBC/Reuters) CoreWeave 与 Anthropic 签署多年协议,提供 Nvidia GPU 算力支持
两家公司估值合计超过 1 万亿美元,都在筹备 IPO。 这场口水战的背后,是争夺投资人信心的生死战。
「太强不敢发」——是责任还是营销?
这是最值得思考的问题。
如果是真的——AI 已经强到能自主攻破企业和政府系统,那我们需要认真讨论:谁来监管这种能力?政府显然没准备好(连怎么定义「AI 武器」都还没共识)。
如果是炒作——那这就是 AI 行业最高明的营销策略:用「太危险所以不发布」来证明自己比竞争对手更强、更负责任。一箭双雕。
现实大概率在两者之间。Mythos 很可能确实在网络安全领域有突破性能力,但「能瘫痪财富 100 强」这种说法,更多是一种姿态。
跟你有什么关系?
三个层面:
1. 网络安全——如果 AI 真的能自主发现漏洞并攻击系统,那你公司的数据、你的银行账户、你的个人信息的安全等级需要重新评估。现有的防火墙和杀毒软件,可能挡不住 AI 驱动的攻击。
2. AI 治理——这件事再次证明,AI 发展的速度远超监管的速度。你的工作、你的行业,可能在你还没反应过来的时候就被 AI 改变了。与其焦虑,不如现在就开始了解和使用 AI。
3. 信息素养——面对「AI 太强不敢发」这种叙事,保持理性很重要。科技公司的每一次公告都带有商业目的。学会区分「技术突破」和「营销话术」,是 AI 时代的基本素养。
有一件事是确定的:2026 年的 AI 竞赛,已经从「谁的模型更聪明」升级到了「谁有能力造出最危险的 AI,以及谁有勇气不发布它」。
这个叙事转变本身,就值得我们警惕。
关注「AI引路者」,每天用大白话帮你搞懂 AI。看完就能用。
夜雨聆风