4月16日,OpenAI发布了GPT-5.4-Cyber。
同一天,Anthropic发布了Claude Mythos安全模型。
两家公司在同一天宣布进军网络安全领域,主打功能几乎一模一样:威胁检测、漏洞挖掘、安全响应。而且都仅限企业客户使用。
我感觉这很像是一场酝酿已久的战争。
先说说这两家公司的背景。
Anthropic的创始人Dario和Daniela Amodei,都是从OpenAI出来的。2021年,他们因为和OpenAI在AI安全理念上的分歧,带着一批核心员工出走,创办了Anthropic。
从那以后,这两家公司就一直在较劲。
OpenAI走"快速迭代、先做出来再说"的路线,GPT-3、GPT-4、GPT-5、GPT-6,一年一个大版本。Anthropic走"安全优先、稳扎稳打"的路线,Claude系列以"更可控、更诚实、更少幻觉"著称。
在消费端市场,OpenAI一直压着Anthropic打。ChatGPT的月活用户数是Claude的几十倍。
但在企业端,情况正在逆转。
Anthropic最近披露的年化收入已经飙升到300亿美元,增速是OpenAI的近十倍。在编程工具市场,Claude Code的份额已经超过了54%。新增企业客户占比,Anthropic是30.6%,OpenAI是35.2%,差距只剩不到5个百分点。
OpenAI急了。
网络安全这个战场,是Anthropic先开枪的。
4月7日,Anthropic发布了Claude Mythos Preview。这个模型的定位很清晰:专门用于防御性网络安全,可以发现系统漏洞、分析威胁情报、协助安全响应。
Mythos在多项基准测试里刷新了纪录,尤其是在SWE-bench Pro这个编程能力测试里拿了满分第一。
更重要的是,Anthropic宣布和亚马逊、微软、苹果展开合作,把这些安全能力集成进企业的基础设施里。
这意味着什么?
意味着企业客户可以用自然语言跟AI说"检查一下我们上周部署的代码有没有漏洞",AI就能自动扫描、分析、生成报告。安全团队的工作效率可能提升十倍。
Anthropic在Mythos的发布稿里特别强调了一点:这个模型有严格的安全护栏,不会被用于攻击性目的。
但谁都知道,"防御性"和"攻击性"之间的界限,在技术层面是很模糊的。能发现漏洞的AI,理论上也能利用漏洞。能分析攻击模式的AI,理论上也能设计攻击模式。
OpenAI显然不打算让Anthropic独占这个市场。
7天之后,OpenAI发布了GPT-5.4-Cyber。
官方描述是"专为网络安全防御场景微调",主打威胁检测、漏洞挖掘、安全响应。
和Mythos几乎一模一样。
但OpenAI的发布稿里有一个细节值得玩味:他们披露了一个计划,要在2030年把算力规模提升到30GW。
30GW是什么概念?
目前全球AI行业的总算力消耗,大概在10GW左右。OpenAI一家就想在五年内把行业总量翻三倍。
这两家公司的竞争,正在从"谁的大模型更聪明",转向"谁能在特定垂直领域建立护城河"。
网络安全是一个万亿级的市场。全球企业每年在安全软件和服务上的支出超过1500亿美元,而且还在以每年10%以上的速度增长。
更重要的是,这个市场有一个特点:客户极度缺乏专业人才。
全球网络安全人才的缺口超过300万。企业有钱,但招不到人。AI安全助手正好可以填补这个缺口。
对OpenAI和Anthropic来说,谁能拿下这个市场,谁就能在企业端站稳脚跟,谁就能在下一轮融资或者IPO时讲出更好的故事。
但这场竞争还有一个更深层的含义。
网络安全,是AI能力的一个极端测试场。
在这个领域里,AI不仅要"理解"代码,还要"理解"攻击者的思维方式。不仅要发现已知的漏洞模式,还要发现全新的、从未被记录过的漏洞。不仅要在实验室环境里表现良好,还要在真实世界的复杂系统里稳定工作。
如果AI能在网络安全领域证明自己,它就能在任何领域证明自己。
反过来说,如果AI在网络安全领域失败了——比如产生了大量误报,或者漏掉了关键漏洞,或者被攻击者用对抗样本欺骗——那它在其他关键领域(比如医疗、自动驾驶、金融风控)的可信度也会受到质疑。
所以OpenAI和Anthropic在这个战场上投入重兵,不只是为了那1500亿美元的市场。它们是在争夺"AI可信度"的定义权。
还有一个问题很少有人讨论:这些"安全AI"本身安全吗?
Anthropic说Mythos有严格的安全护栏,不会被用于攻击性目的。但护栏是谁设的?怎么保证不会被绕过?
OpenAI说GPT-5.4-Cyber只向"特定用户"开放。但"特定用户"的标准是什么?怎么防止这些能力流入黑市?
更根本的问题是:当AI变得比人类更擅长发现漏洞,谁来监督这些AI?
传统的安全审计,是人对代码的审查。未来的安全审计,可能是AI对AI的审查。但如果两个AI串通起来隐瞒漏洞呢?如果AI发现了漏洞但选择不报告呢?
这些问题没有现成的答案。
OpenAI和Anthropic的竞争,正在把AI安全研究从一个学术话题,变成一个紧迫的工程问题。
4月16日这一天,两家公司同时发布网络安全模型,标志着AI军备竞赛进入了一个新阶段。
第一阶段是比参数规模,谁的大模型更聪明。
第二阶段是比应用场景,谁能在特定领域建立优势。
现在进入第三阶段:比谁能让AI在真实世界里安全、可靠、可控地工作。
而信任,是AI行业最稀缺的资源。
夜雨聆风