你每天用的两个 AI,对「保护你」这件事做了完全相反的选择4 月 7 号,Anthropic 发了一个模型,能自己挖出藏了 27 年的系统漏洞,还能自动写攻击代码。然后他们把它锁起来了,只给 40 多家大公司用。7 天后,OpenAI 上线了一个能力差不多的东西。面向所有人开放申请。我当时就愣住了。这两家,到底谁在保护我?这个问题我琢磨了好几天。今天试着聊聊。先说这两个模型干了什么。你得先理解它们有多强,不然后面的分歧会显得莫名其妙。Anthropic 那个模型叫 Claude Mythos。内部测试跑了一圈,找出了数千个高危零日漏洞。零日漏洞就是,在它发现之前,全世界没有任何人知道这些漏洞存在。不是有人知道没去修,是真的没人知道。最夸张的一个,藏在 OpenBSD 里。OpenBSD 是业内公认最注重安全的操作系统之一。很多防火墙和服务器都跑在它上面。就这么一个以安全著称的系统,里面有个 TCP 协议实现漏洞存在了 27 年。27 年,全球那么多安全研究员、那么多代码审计工具,愣是没一个人摸到。Claude Mythos 花了几分钟。还有一个是 FFmpeg。你可能不认识这名字,但你大概率用过它。全世界几乎所有视频播放器、剪辑软件、直播工具的底层都在调用这个库。里面有个漏洞藏了 16 年。Claude Mythos 不光找到了,还自动生成了可以直接执行的攻击代码。我给你翻译一下这个时间差。以前从发现一个漏洞到写出攻击代码,可能要几个月。一个顶尖安全研究员全职盯一个目标,反复分析、测试、调试,才能走完这个流程。现在,几分钟。你想想看,这不是什么更强的杀毒软件。这是 AI 自己变成了黑客和保安的合体。它能替你找到问题,也能替别人利用问题。一个能力,两种用法。理解了这个,后面的事情就好懂了。先说 Anthropic。他们搞了个计划叫 Project Glasswing,玻璃翼计划。名字挺文艺,操作非常硬核。Anthropic 自己掏了 1 亿美元的模型使用额度,又捐了 400 万美元给开源安全组织,然后把 Claude Mythos 定向提供给 40 多家机构。哪 40 多家?AWS、Apple、Google、Microsoft、NVIDIA、CrowdStrike、摩根大通、Linux 基金会。全是全球核心基础设施的维护方。逻辑很明确。这东西太危险了,先控住再说。不公开 API,不开放网页版,不让普通开发者碰。每一次使用都有审计记录。用完了还得交报告。坦率的讲,你可以把它理解成一把枪。Anthropic 觉得这把枪太猛了,只能锁在保险柜里,钥匙只交给少数几个信得过的人。再说 OpenAI。GPT-5.4-Cyber 在 4 月 14 号上线,离 Claude Mythos 发布刚好 7 天。OpenAI 搞了个计划叫 TAC,全称 Trusted Access for Cyber。和 Glasswing 最大的区别是覆盖面。数千名经过身份验证的安全防御者,数百个企业安全团队。个人在 chatgpt.com/cyber 就能申请,企业走客户代表。还做了分层。信任等级越高,能用到的模型能力越强。不是一刀切的开放,更像一个梯子。OpenAI 的想法也很直白。坏人早晚会搞到这种能力,与其藏起来,不如先把好人武装上。顺着枪的比喻说,OpenAI 觉得枪迟早扩散,锁起来只会让好人赤手空拳。两家公司面对几乎一样的能力,选了完全不同的方向。这事儿其实挺微妙的。Anthropic 的 CEO Dario Amodei 是安全研究背景出身。这哥们当年从 OpenAI 出来创业,很大一个原因就是觉得 OpenAI 在安全上不够谨慎。他的逻辑是,拿不准的时候,宁愿保守一点。Sam Altman 一直主张开放优先。他觉得技术封锁从来没真正拦住过谁,与其搞一个脆弱的信息壁垒,不如让防守方先跑起来。我反正自己的感受是,两边说的都有道理,但两边也都有漏洞。Glasswing 那边,40 多家机构听起来不少。但全球那么多企业和组织摆在那儿,这个数字就太小了。大量中小安全公司、学术机构、独立安全研究者全被排在外面。Reddit 上有人说得挺狠,这叫安全研究的贵族化。最需要保护的小公司,反而排在最后面。TAC 那边,开放总是伴着泄漏风险。身份验证能挡住大部分人,但挡不住所有人。只要有一个拿到授权的人搞事,或者账号被盗,后果收不回来。而且数千个用户的管控难度,跟 40 家机构完全不是一个量级。说真的,这种两难在 AI 领域会越来越多。技术的矛和盾长在同一个身上,你没办法只给好人开一个接口、给坏人关一个接口。跟核技术的逻辑很像。你造不出只能发电的核反应堆,也造不出只能炸人的核弹。底层是同一种能力,区别只在于谁拿到、怎么用。说到这儿,可能有人会想,这跟我有什么关系?我又不做安全,我就是个普通打工人。关系比你想的近。最直接的一点。你每天用的 AI 工具,背后的安全策略直接决定了你的数据怎么被对待。你用 Claude 写的文档,你用 ChatGPT 处理的客户邮件,你往 AI 里喂的公司数据。这些东西在什么样的安全体系下被保护,取决于这些公司对安全到底有多认真。这不是远处的行业新闻。它正在影响你手里那个对话框怎么对待你的信息。再往深一层。AI 在安全方面的能力已经超过了很多初级安全分析师。Claude Mythos 几分钟干了人类 27 年没干成的事。初级安全分析、代码审计这类岗位正在被压缩。同时,能理解 AI 模型边界、能设计 AI 防御系统的人,全行业都在抢。如果你恰好在考虑职业方向,或者身边有人做安全相关的工作,留意一下。但最让我在意的,其实是另一个问题。当 AI 既能防守又能进攻的时候,规则该由谁来定?现在是 Anthropic 自己决定藏起来,OpenAI 自己决定放出去。但你想想,这种判断真的应该由商业公司来做吗?一家说太危险了不给你用,另一家说来申请就给你用。这两个决定影响的是全球几十亿人的数字安全。美国财政部长和美联储主席已经召集大型银行 CEO 开了紧急会议,讨论 AI 模型带来的金融系统风险。政府正在准备介入。未来几年,大概率会出现某种类似出口管制的 AI 模型监管框架。就像核技术有不扩散条约,高风险 AI 模型也迟早需要一套全球性的规则。这不是科幻片。是正在发生的事。回到开头那个问题。这两家,到底谁在保护我?我想了挺久,不打算站队。但我有一个判断方式可以分享。看一家 AI 公司对安全的态度,不要看它嘴上说了什么。看它愿不愿意告诉你,它的模型能做什么、不能做什么、以及它选择不让你做什么。Anthropic 选了藏起来,但它把 Claude Mythos 的能力边界说清楚了,告诉了你它有多危险、为什么不给你用。OpenAI 选了开放,但设了身份验证和分层门槛,不是随便谁都能拿到最强版本。两家都不完全透明,也都不完全封闭。我们不用成为安全专家。但至少该知道自己每天用的工具,对保护你这件事,到底是什么态度。这个信息,你有权知道。反正现在这个局面,两个选手都觉得自己在保护观众,选的路完全不一样。而我们连比赛规则是什么都没搞清楚。比起等着谁来定规则,不如自己先搞明白,你手里的工具到底在怎么对待你。这事儿谁也替不了你。以上,如果你都看到这里了,那这篇东西大概率多少对你有点用。如果你也在折腾 AI,也在被这个时代搞得一会儿上头一会儿发懵,欢迎点个赞、在看、转发一下,也欢迎直接给我来信,聊聊你正在折腾的东西。谢谢你看到这里,我们,下次接着聊。/ 作者:莓问题AI/ 邮箱:1603836362@qq.com