乐于分享
好东西不私藏

Mythos访问失控:AI攻防工具自身难控,基础设施安全警钟再响

Mythos访问失控:AI攻防工具自身难控,基础设施安全警钟再响

Mythos模型为何被严格限制

Anthropic在4月初推出Project Glasswing项目时,就明确表示其新前沿模型Claude Mythos Preview能力过于强大,不会向公众开放。该模型能在用户指导下,快速识别并利用主要操作系统和网页浏览器中的零日漏洞,甚至能自主生成完整可工作的攻击链。

Anthropic称,Mythos Preview已在测试中发现数千个高危零日漏洞,包括一些存在十几年甚至更久的旧缺陷。它被视为双刃剑:用于防御能帮助修补关键软件,用于攻击则可能放大网络威胁。因此,Anthropic仅限少数合作伙伴(如Apple、Microsoft、Google、AWS、Cisco等大型科技和金融企业)在受控环境下测试,用于防御性安全工作。

这一限制本身就反映了行业对先进AI网络能力的谨慎态度——攻防平衡正被快速改变,防守方需要抢先一步。

未授权访问事件经过

据Bloomberg报道,一小群用户在Anthropic宣布有限测试计划的同一天,通过私人在线论坛(据称涉及Discord)获得了Mythos的访问权限。访问方式包括猜测模型URL格式、利用第三方承包商凭证等。报道称,这群用户已持续使用模型一段时间,但并非用于网络安全相关目的,并提供了截图和实时演示作为佐证。

Anthropic迅速回应,表示正在调查“通过第三方供应商环境声称的未授权访问Claude Mythos Preview的报告”。公司强调,目前没有证据显示访问超出第三方供应商范围或影响自身系统。事件曝光于4月21日前后,到25日仍有媒体跟进和安全圈讨论,热度持续。

“安全工具自身失守”的讽刺与冲击

最引人关注的,是这起事件本身的反差:一个被设计用来发现和防范漏洞的强大AI工具,却在访问控制环节遭遇绕过。这让不少业内人士感到讽刺——如果连模型本身的防护都难以完全把控,未来类似高能力AI的部署将面临更大挑战。

Mythos的能力被描述为远超普通人类安全研究员,它能快速扫描代码、找出隐藏缺陷并生成利用方式。这种“超人”级工具本应严格把控,却在发布初期就被小范围绕过,引发了对AI安全边界管理的质疑。安全圈和AI社区迅速讨论,认为这凸显了技术扩散速度与控制手段之间的脱节。

这件事暴露了什么控制难题

事件核心在于AI模型访问控制的现实难度。Anthropic依赖第三方供应商和有限伙伴生态,而用户通过凭证共享或URL模式猜测等方式实现绕过,这并非罕见的技术漏洞,而是复杂供应链和人类因素共同作用的结果。

在更广层面,它触动了AI时代网络安全的基础问题:当模型能力指数级提升时,如何防止其被不当使用?Project Glasswing正是为此设计的防御性联盟,但未授权访问案例提醒人们,技术限制不可能完美。业内已有讨论认为,这可能加速对AI部署合规、供应链安全审计以及更严格访问机制的关注,尤其涉及关键基础设施和DeFi等高风险领域。

目前事件范围和影响细节仍在调查中,尚无证据显示被用于恶意目的,但它已让外界看到控制高危AI工具的复杂性。

后续值得持续关注的点

Mythos在零日发现速度上的实际表现,仍需更多独立验证。事件也让人们关注,如果类似能力扩散,会对智能合约、关键软件基础设施带来何种压力——防守方是否能始终领先一步?

Anthropic的调查结果将直接影响后续讨论。如果证实控制机制存在明显薄弱点,可能推动行业在AI安全治理上采取更多实质行动。目前看来,这起事件不是单纯的“泄露”,而是提醒整个生态:强大AI的攻防潜力正在重塑规则,谨慎管理和透明沟通至关重要。

链接

  • bloomberg.com
  • anthropic.com