乐于分享
好东西不私藏

能攻破你网络的AI已诞生,但它的使用权,轮不到你

能攻破你网络的AI已诞生,但它的使用权,轮不到你

当AI安全进入“主权时代”,绝大多数企业,可能连入场券都拿不到。这像极了数字世界的“芯片禁令”——最强的东西,你出钱也不一定能买到。

最近,AI圈上演了一出颇具争议的戏码。

Anthropic发布Claude Mythos,一个能自主挖掘“零日漏洞”的模型,强到美英监管层紧急开会。Sam Altman随后在社交媒体上评论:“这就好比我造了炸弹,正要扔你头上,然后卖你1亿美元的防空洞。”嘲讽Anthropic搞恐惧营销。

结果没过几周,OpenAI推出了GPT-5.5-Cyber,同样是网络安全专用,同样只给“经过审查的防御者”使用。 外媒直接用标题补刀:“OpenAI做了它刚刚嘲笑过的事。”

但别只顾着看热闹。这出“真香”反转背后,藏着一个影响我们每个人的深刻转折:AI安全,正从一种普惠的工具,变成一种被少数人垄断的“主权资源”。 这到底是在保卫我们,还是在筑起新的高墙?

01 一场“神仙打架”,暴露了共同底牌

先看看这两款模型,到底强在哪。

Claude Mythos Preview,不是专门训练出来的安全工具。它是推理能力强到一定程度后,自动“涌现”出了挖掘漏洞、编写攻击脚本的能力。 在第三方安全测试中,它发现了蛰伏10年甚至27年的老漏洞,挖洞效率是前代模型的10倍。更惊人的是,它成为第一个完整跑通32步企业网络攻击链的AI——10次尝试里有3次从头打到尾,全程没有人类协助。

OpenAI这边也不甘示弱。根据多家科技媒体援引的AISI测试数据,GPT-5.5通用版本在专家级网络安全任务上完成率达71.4%,略高于Mythos的68.6%。而GPT-5.5-Cyber是在此基础上的安全专项升级,能力只会更强。继Mythos之后,GPT-5.5也同样具备了跑通完整攻击链的能力。

两家数据咬得很紧,充分说明这已不是某家公司的独门秘笈,而是整个前沿模型能力溢出的普遍趋势。 但最值得玩味的,是两家公司最后做出的相同选择——都把模型“锁”了起来。

02 一份“防空洞”合同,轮不到你签

当能力强大到某种程度,“给谁用”就成了终极问题。

Anthropic的理由很直白:Mythos如果公开,瞬间就会变成黑客的“超级武器”。所以他们启动了“玻璃翼计划”,只授权给微软、英伟达、摩根大通等十几家巨头和40多家关键机构使用。

OpenAI嘴上嘲讽,身体却很诚实——GPT-5.5-Cyber同样只开放给“经过审查的防御者”。

这就引出一个尖锐得多的问题:谁能定义谁是“好人”?标准和界限由谁来划定? 已经有专家发出警告,这极有可能演变成“少数实验室和特定政府机构的小圈子游戏”。当最坚固的盾和最锋利的矛都被锁进巨头和政府的保险柜,绝大多数企业,连参与竞争的资格都没有。

这就是“AI安全主权化”——安全不再是你想买就能买的服务,而是一种由顶层分配的稀缺特权。

当然,需要补充一个客观事实:这里的“垄断”主要指模型的直接使用权。部分能力可能通过API或云服务向下渗透,但核心的、未被裁剪的能力,依然掌握在少数机构手中。与此同时,民间开源AI黑客工具也在快速进化。攻击侧的“技术民主化”正在发生,防御侧的顶尖能力却被锁得更紧——攻防天平正在以肉眼可见的速度倾斜。

03 别再迷信“打补丁”了,换个活法

不管神仙怎么打架,地面上的安全负责人必须面对现实。这类前沿模型带来的最大冲击,不是某几个漏洞,而是对传统防御理念的彻底颠覆。

有安全专家在分析中把话挑明:“发现漏洞、打补丁、再发现、再打补丁”的老套路,在AI批量化攻击面前已经越来越吃力。

道理很朴素。以前黑客挖漏洞是手艺活,高手花几个月、几十万美元才能打磨出一个趁手的漏洞。现在AI直接搞起了流水线批发,漏洞产出速度远远超过人类打补丁的速度。 你刚手忙脚乱修好一个,AI可能已默默找到了十个新的。

所以换一种思路或许更务实:承认漏洞永远修不完,转向“带洞生存、带洞防护”。 这绝不是躺平,它的专业术语叫“入侵容忍”和“韧性工程”。具体怎么做?把重心放在微隔离、欺骗防御、运行时应用自我保护这些事上——核心逻辑很朴素:防不住第一次攻击是常态,但能不能让攻击者进来了也动不了、走不远、藏不住,才是真功夫。

04 给普通企业的三条“求生指南”

趋势说清楚了,最后给一线朋友们三条实在建议。

第一条,把“AI威胁”纳入风险评估,但别被吓瘫。Mythos和GPT-5.5-Cyber确实强,但它们目前主要被锁在严格的授权体系里。对大多数企业而言,当下最现实的威胁还是钓鱼邮件、弱密码、未修复的已知漏洞这些“老大难”。先把基本功练扎实,比焦虑那些暂时与你距离较远的顶尖模型管用得多。

第二条,尽早拥抱AI防御工具。用AI对抗AI,是目之所及最有效的出路。现在AI驱动的SOC、XDR和态势感知平台,能自动进行告警降噪、还原攻击链、甚至自动处置。方向已经很明确:靠人眼盯着屏幕看的时代,快要结束了。 你需要一个不知疲倦的AI助手,帮你从海量告警里揪出那几条真正致命的威胁。

第三条,关注“AI自身的安全”。当你开始用上AI工具,AI本身就变成了全新的攻击面。提示词注入、训练数据投毒、模型逆向攻击……这些新风险在2026年已经浮出水面。想象一下,如果你的AI客服被提示词注入攻击,客户隐私数据可能瞬间泄露——这不是科幻,而是当前技术条件下完全可能发生的事。以后企业不仅要保护网络,还得学会保护自己的AI资产不被操纵或窃取。


写在最后

GPT-5.5-Cyber和Claude Mythos的相继亮相,像一面镜子,照出我们这个时代最深的矛盾:最先进的安全技术,掌握在少数不愁生意的巨头手里;而那些最需要保护的中小企业,往往连一张入场券都摸不到。

与其焦虑跟不上前沿模型的节奏,不如回到最朴素的逻辑——把基础防护做到位,用AI的眼力补上人力的短板,时刻保持对异常行为的感知力。安全的终极核心,从来不是你修了多少补丁,而是当攻击不可避免地发生时,你有没有准备好接住那一招。

如果你现在手里有一笔不大不小的安全预算,你会怎么分配? 是侧重招聘资深安全人才,还是投资AI驱动的防御平台,又或者寻找“人+平台”的最佳组合?来评论区聊聊你的选择和理由,我很想听听一线朋友们的真实想法。


关注我,拥抱AI不迷路,下期更精彩。

个人观点,仅供参考。