——从Anthropic“雪藏”最强模型到OpenClaw安全危机,看AI时代的攻防博弈
【导语】
2026年4月7日,AI行业发生了一件前所未有的事。
Anthropic——这家由OpenAI前研究高管创立的AI公司——发布了一个新模型,然后告诉全世界:你们用不了。
这个名为Claude Mythos Preview的模型,被内部称为“强到不敢发布”。它能在数小时内自主发现主流操作系统和浏览器中的数千个高危零日漏洞,包括一个藏在OpenBSD里27年的远程崩溃漏洞。当没有正式安全培训的工程师要求它“在一夜之间找到远程代码执行漏洞”时,第二天早上醒来就发现了一个完整的、有效的漏洞利用程序【1†L3-L5】。
能力越强,风险越大。Anthropic最终选择将其“雪藏”,仅向AWS、苹果、谷歌、微软等12家核心合作方开放,并联合启动“玻璃翅膀计划”(Project Glasswing),提供1亿美元模型使用额度用于“防御性网络安全”【1†L9-L12】。
而就在一个月前,另一则新闻形成刺眼对照:开源AI智能体框架OpenClaw(俗称“龙虾”)因默认配置“重功能、轻安全”爆火全网,GitHub星标数突破27.3万,却在短短数周内被工信部、国家网信办、国家互联网应急中心接连发布安全预警——全球公网暴露的23万个实例中,8.78万例已出现数据泄露【2†L7-L9】。
一个因太强而不敢发布,一个因太火而漏洞百出。这两件事同时发生在2026年春天,勾勒出AI产业化进程中最深刻的悖论:
当我们加速将AI推向产业应用的每一个角落,是否也在同步打开潘多拉的魔盒?
一、Mythos“雪藏”事件:AI安全能力的“恐怖谷”
要理解AI产业化的安全悖论,需要先看清Mythos的能力边界究竟在哪里。
从“工具”到“猎手”的质变
传统AI在网络安全领域的应用,主要是辅助工具——帮助人类分析师筛选日志、识别异常、生成报告。但Mythos展现的是一种完全不同的能力:自主发现、自主分析、自主利用。
据Anthropic披露,Mythos在完全自主的状态下完成了以下任务:
发现数千个高危零日漏洞,涵盖所有主流操作系统和浏览器
复现OpenBSD中存在27年的远程崩溃漏洞
发现FFmpeg代码中16年的陈旧漏洞
在没有安全培训的工程师指令下,一夜之间生成完整的远程代码执行漏洞利用程序【1†L3-L5】
更具标志性的是FreeBSD内核漏洞事件:Mythos仅用4小时,就从零写出两个国家级攻击程序,直接获取root权限,完成了从漏洞分析到攻击链构建的全流程。此前,这样的任务需要美国NSA或顶级黑客团队数周甚至数月,成本高达数百万美元【1†L3-L5】。
72.4%的漏洞利用成功率
Anthropic的测试数据显示,前代旗舰模型Opus 4.6的漏洞利用开发成功率“仅略高于零”,而Mythos Preview生成有效漏洞利用的成功率达到72.4%【1†L7-L9】。
这意味着什么?意味着AI在网络安全领域的能力,已经从“辅助人类”跨越到“超越人类”——除了最顶尖的人类黑客,Mythos在发现和利用软件漏洞方面可以超越所有人。
“雪藏”背后的安全焦虑
正是这一能力跃升,让Anthropic做出了违背商业逻辑的决定。
按照常规路径,Mythos应该开放API、更新产品线、发布benchmark排行榜,成为公司新的收入增长点。但Anthropic选择了“半锁藏”模式:不向公众开放,仅向12家核心合作方和40余家关键基础设施组织提供,且明确限定用于“防御性网络安全”【1†L9-L12】。
CEO Dario Amodei的解释直白而冷静:“更强大的系统将来自我们,也将来自其他公司。我们需要一个应对计划。”【1†L9-L12】
这句话揭示了一个残酷现实:当AI的能力超越人类控制阈值时,商业利益必须让位于安全责任。这不是理想主义的宣言,而是生存理性的计算——如果Mythos落入恶意行为者手中,其破坏力将远超任何传统网络武器。
二、OpenClaw危机:AI平民化的“安全陷阱”
与Mythos的“高能力、高管控”形成鲜明对比的,是OpenClaw的“低门槛、高风险”。
“龙虾”爆火的背后
OpenClaw是一款开源AI智能体框架,因图标是一只红色龙虾而被网友称为“龙虾”。它的核心定位是“AI执行层”——区别于普通聊天AI,它能直接操控本地文件、执行系统命令、调用API、安装扩展插件,相当于给AI装上了“双手”。
这一设计精准击中了用户需求:让AI从“说话”走向“做事”,真正实现端到端的自主操作。自发布以来,OpenClaw呈现现象级增长:
GitHub星标数27.3万+(截至2026年3月),超越React、Linux内核
三周累计下载量4110万+次,相当于Linux三十年的普及水平
社区技能数(ClawHub)1.1万+个,覆盖办公、开发、生活等全场景
全球部署实例284万+个,月增长近百万【2†L3-L5】
“重功能、轻安全”的先天缺陷
然而,在追求功能完整性和用户体验的过程中,OpenClaw埋下了严重的安全隐患:
第一,默认高权限运行。 本地部署默认获取文件全盘读写、系统命令执行、环境变量读取权限,部分云服务器一键部署直接用root/管理员账户启动,没有任何权限隔离。
第二,公网暴露无防护。 默认监听0.0.0.0:18789端口,不做身份认证、IP限制,大量用户直接部署后公网可访问,黑客可批量扫描入侵。
第三,生态审核缺失。 官方技能市场ClawHub插件无需严格安全审计,第三方插件可随意上传,恶意代码极易伪装成实用工具传播【2†L11-L13】。
触目惊心的安全数据
工信部网络安全威胁和漏洞信息共享平台(NVDB)的监测数据显示:
国内公网暴露实例7.52万例,其中63%存在可利用漏洞
全球公网暴露的23万个实例中,8.78万例已出现数据泄露
4.3万例直接暴露用户个人身份信息
ClawHub技能市场中约20%的插件曾被爆出恶意行为,约1467个技能藏有信息窃取木马、键盘记录器【2†L7-L9】
更具警示意义的是CVE-2026-30891漏洞:CVSS评分9.1,2026.2.0前版本默认无认证,监听19890端口,公网暴露即被“一键接管”【2†L11-L13】。
监管层的紧急应对
2026年3月,工信部NVDB发布《关于防范OpenClaw(“龙虾”)开源智能体安全风险的“六要六不要”建议》,这是国内首次针对开源AI智能体发布专项安全预警。随后,国家网信办、国家互联网应急中心、多地网安部门接连发布风险提示【2†L11-L13】。
建议内容包括:使用官方最新版本、严格控制互联网暴露面、坚持最小权限原则、谨慎使用技能市场、防范社会工程学攻击和浏览器劫持等。
从“创新红利”到“安全负债”
OpenClaw的案例揭示了一个普遍规律:技术平民化的速度,往往快于安全机制的完善速度。当一款AI工具以“低门槛、高功能”快速普及,其安全风险也在同步放大。
对于个人用户,这意味着隐私泄露、财产损失;对于企业用户,这意味着商业机密泄露、系统被控;对于关键基础设施,这意味着国家安全风险。
三、安全悖论:AI产业化的“不可能三角”
Mythos的“雪藏”与OpenClaw的“失控”,共同指向AI产业化进程中的核心悖论:能力、安全、普及三者难以兼得。
悖论一:能力越强,控制越难
Mythos展现了一个残酷现实:当AI能力超越人类专家水平时,传统的安全控制机制可能失效。人类审核员无法识别AI发现的零日漏洞,人类监管者难以预判AI的决策逻辑,人类操作员跟不上AI的执行速度。
这意味着,超强能力AI的安全治理,需要AI自身的参与——形成“用AI监管AI”的递归结构。但这又带来新的风险:如果监管AI本身出现问题,整个系统将陷入失控。
悖论二:门槛越低,风险越高
OpenClaw证明,AI技术的平民化普及,必然伴随安全门槛的降低。当非技术用户也能部署AI智能体,当第三方开发者可以自由扩展功能,安全漏洞的攻击面呈指数级扩大。
更深层的问题是:AI安全是一个“网络外部性”问题。单个用户的安全配置不仅影响自身,也影响整个生态。一个被入侵的OpenClaw实例,可能成为攻击其他用户的跳板;一个恶意的ClawHub插件,可能危害所有安装者。
悖论三:创新越快,监管越慢
AI技术的迭代速度以“周”甚至“天”为单位,而监管政策的制定周期以“月”甚至“年”为单位。这种速度差导致监管永远滞后于创新,只能在事后应对而非事前预防。
2026年,全球AI监管呈现复杂态势:欧盟《人工智能法案》考虑暂停部分条款实施,美英等国放松监管以促进创新,中国多部门出台AI标注规则但尚未形成统一框架【3†L7-L9】。在这种背景下,企业自律成为事实上的第一道防线——但自律与商业利益之间的张力始终存在。
四、攻防重构:AI时代的网络安全产业变局
AI产业化的安全悖论,正在重塑网络安全产业的格局与逻辑。
变局一:从“人 vs 人”到“AI vs AI”
传统网络安全的攻防双方都是人类。但在AI时代,攻击者和防御者都在使用AI工具,形成“AI vs AI”的对抗格局。
据谋乐科技(BUGBANK)基于2025-2026年实战数据分析,AI已深度参与真实网络攻击全链路:黑客借助增强型AI实现自动化渗透,仅需20%人工干预即可完成漏洞挖掘、数据窃取等全流程操作,曾出现单月窃取150GB政府核心数据的极端案例【4†L7-L9】。
与此同时,防御方也在加速AI化。微软AI红队通过对超100款生成式AI产品的测试,总结出八大关键经验;国内首次发布的“AI红队”服务,开创AI攻防新赛道【4†L11-L13】。
变局二:从“边界防御”到“零信任架构”
传统网络安全依赖“边界防御”——在企业内外网之间建立防火墙,信任内部、防范外部。但AI智能体的自主性和分布式特征,使得“边界”变得模糊。
81%的企业计划在2026年前采纳零信任架构——永不信任、持续验证。这意味着,即使是内部AI系统,也需要经过严格的身份认证、权限控制、行为审计。
变局三:从“合规驱动”到“风险驱动”
传统网络安全投入主要是“合规驱动”——满足等保、ISO等标准即可。但AI时代的安全风险具有高度不确定性和动态性,合规不等于安全。
这推动网络安全向“风险驱动”转型:基于实时威胁情报、持续风险评估、动态安全响应,构建自适应的安全能力。
市场规模与投资热度
AI安全市场的增长印证了产业变局的深度:
2026年中国网络安全市场投资规模预计达319亿美元(约2300亿元人民币),其中安全软件占比将超过安全硬件,达到41%【5†L3-L5】
2026年中国企业AI智能体安全市场规模预计达436亿元,到2030年有望超过800亿元
全球AI安全市场规模到2030年有望超过1000亿美元
五、治理探索:走出安全悖论的可能路径
面对AI产业化的安全悖论,全球正在探索多元化的治理路径。
路径一:分级管控——按风险等级差异化管理
借鉴欧盟《人工智能法案》的“风险分级”思路,对AI系统按潜在风险进行分类管理:不可接受风险(如使用生物识别数据推断敏感特征)直接禁止;高风险(如招聘、执法中的AI应用)严格安全评估;有限风险(如聊天机器人)透明度要求;最小风险(如垃圾邮件过滤器)无额外义务。
Mythos的“雪藏”可以视为这一逻辑的实践:因其能力达到“潜在高风险”阈值,故适用最严格的管控措施。
路径二:红队测试——主动发现而非被动应对
“红队测试”(Red Teaming)正成为AI安全治理的标准配置。微软、Anthropic、OpenAI等头部企业都建立了专门的AI红队,模拟攻击以发现漏洞。
与传统软件测试不同,AI红队测试针对的是“行为偏差”而非“功能缺陷”——验证工具调用边界、识别提示词操纵、检测数据泄露、评估恶意语境中的行为表现。
2026年,国内首次发布“AI红队”商业化服务,标志着这一能力从企业内部走向市场。
路径三:生态共治——多方协同的治理网络
AI安全不是单一主体可以解决的问题,需要政府、企业、学术界、公民社会的协同。
Anthropic的“玻璃翅膀计划”是一个典型案例:联合12家科技巨头、向40余家关键基础设施组织开放、向Linux基金会等开源组织捐赠400万美元——构建一个多方参与、资源共享、责任共担的治理网络【1†L9-L12】。
路径四:技术内置——从“外挂安全”到“内生安全”
最根本的解决方案,是将安全机制“内置”于AI系统的设计之中:对齐技术(Alignment)确保AI目标与人类价值观一致;可解释性(Interpretability)让AI决策过程对人类透明;可控性(Controllability)保留人类对关键决策的否决权;鲁棒性(Robustness)提升AI对对抗性攻击的抵抗能力。
Anthropic表示,将在即将推出的Claude Opus新版本上开发和验证安全防护机制,“在风险可控的条件下完成迭代,再逐步推进”。
六、结语:在加速与刹车之间寻找平衡
2026年春天,Mythos的“雪藏”与OpenClaw的“危机”,为我们提供了一个审视AI产业化的独特视角。
这不是一个“创新 vs 安全”的二元选择,而是一个“如何平衡”的复杂命题。
Anthropic的选择表明:当AI能力超越控制阈值时,负责任的创新者应当主动踩刹车——即使这意味着牺牲短期商业利益。OpenClaw的教训表明:当技术平民化速度超过安全机制完善速度时,监管介入和公众教育必须及时跟上。
更深层的启示在于:AI安全不是一个技术问题,而是一个治理问题。它涉及技术设计、市场机制、监管政策、社会规范等多个层面,需要多元主体的协同努力。
对于企业而言,这意味着将安全纳入AI产品的核心设计原则,而非事后补丁;对于监管者而言,这意味着建立敏捷、包容、前瞻的治理框架,而非僵化的事前审批;对于公众而言,这意味着提升AI素养,理性认识AI的能力与局限。
AI产业化的列车正在加速,但安全必须是轨道而非负担。
只有当创新与安全形成正向循环,AI才能真正成为推动人类进步的普惠力量,而非悬在头顶的达摩克利斯之剑。
这或许是2026年春天留给我们的最重要启示。
夜雨聆风