
一个反转:曾经的"开放派"OpenAI,现在也开始限制了
🕰️全文约3200字,阅读需7分钟
就在上周,AI圈出了一个有意思的新闻:
OpenAI宣布要限制最强模型的发布,只对受邀企业开放。
这波操作,像极了它的"老对手"Anthropic。
曾经,OpenAI的名字里带着"Open"(开放),Anthropic被批"封闭"。
现在,两家的最强模型都开始捂盘了。
这场"开放vs封闭"的对决,变成了"谁捂得更紧"的比赛。

今天咱们就来好好扒一扒——包括他们最近的新变化。
一一一一一一一一一一一一一一一一一一一一
01. 先搞清楚一件事:它们从哪来的?
📌故事要从2019年说起——
那时候,OpenAI还是个小团队,Sam Altman刚从YC离职来当CEO,一心想做"安全的AGI"。

Sam Altman
团队里有个叫Dario Amodei的技术大佬,带着一帮人吭哧吭哧搞出了GPT-2、GPT-3。

Dario Amodei
然后,出事了。
Dario Amodei走了。
2021年,他带着核心团队集体出走,创立了Anthropic。
为什么走?
官方说法是"对AI安全路线有分歧"。
大白话就是:Dario觉得Altman走得太快了,太商业化了,他接受不了。
就这么简单。
一一一一一一一一一一一一一一一一一一一一
02. OpenAI:我先跑起来,边跑边修
离开OpenAI之后,Sam Altman开启了"狂飙模式"。
ChatGPT一炮而红,估值从几十亿飙到上千亿,微软砸了1300亿美元进来。
到了2025-2026年,Altman的规划越来越清晰:
2026年,AI达到实习生水平。
2028年,AI能独立做科研。
听着很科幻对吧?
更科幻的是,为了支撑这个目标,Altman打算建"算力工厂"——每周1吉瓦的数据中心,堪比一座小型城市。
商业化,走得有多快?
这么说吧——OpenAI现在每年收入250亿美元,但Anthropic更猛,300亿美元。
注意,Anthropic比OpenAI小好几倍,但收入已经反超了。
这说明什么?
Anthropic闷声赚大钱,OpenAI在疯狂烧钱换增长。
OpenAI的商业策略很清晰:
9亿周活用户,90%是免费的。剩下10%转化成付费的,薅羊毛薅得明明白白。
2026年还推出了ChatGPT Pro,每月100美元,就为了从程序员身上多榨点油水。
安全怎么办?
问题来了:一边喊着"惠及全人类",一边疯狂商业化,安全团队还在跑路——
这"开放"两个字,还剩多少含金量?
《纽约客》2026年的调查发现,OpenAI官方文件里悄悄删掉了"安全"和"不受财务限制"这些核心表述。
超级对齐团队(就是专门研究AI风险的)负责人杨·莱克跑了,公开说"公司安全文化已经让位给产品进度"。
董事会安全委员会由CEO Altman自己兼任——运动员兼裁判员,你说怎么判?
250亿美元的安全基金?听着很多,但对比一下:OpenAI同期签的算力合同是1.4万亿美元。
安全预算只占1.8%。
哦对了,ChatGPT免费版还开始测广告了。
Altman当年可是说过"永不采用广告"的。
OpenAI也开始"捂盘"了
剧情反转了。
据IT之家报道,OpenAI开始限制前沿模型的发布,不再像以前那样"全量开放"——
而是只对受邀企业开放。
这波操作,像极了Anthropic!
紧接着,OpenAI发布了一个新模型:GPT-5.4-Cyber。
能力很强,但也很危险——能发现系统漏洞、能做网络安全对抗。
OpenAI的选择是:只向通过审核的安全供应商开放,普通开发者想用?没门。
从"开放一切"到"设门槛、限范围"——
OpenAI的画风,悄悄变了。
一一一一一一一一一一一一一一一一一一一一
03. Anthropic:我先立规矩,跑不跑的再说
另一边,Dario Amodei在闷声搞"宪法AI"。
什么是宪法AI?
简单说就是——不给AI请教练,而是给AI写宪法。
OpenAI的方法是雇大量标注员,给AI的每个回答打分,告诉它"这个好,那个坏"。像请了无数个家庭教师。
但问题来了:教练水平参差不齐,最后AI学成什么样,连开发者自己都说不清。
Dario觉得这个方法太笨了。
他搞了一套"宪法",核心原则只有三个词,优先级依次是:
无害 > 诚实 > 有帮助
当用户的请求可能造成伤害时,AI必须启动内置审查,优先拒绝——哪怕用户不满意。
拒绝五角大楼
最能说明问题的案例来了——
2026年,美国五角大楼找上门,要求Anthropic移除Claude的安全限制,让它能用于武器监控和目标追踪。
这可是百亿美元级别的大单子。
Anthropic:不干。
法庭上硬刚,最后还赢了。
Anthropic的逻辑很简单:钱再好,也不能突破"不伤害人类"的底线。
反观OpenAI,同期和美国国防部达成了合作协议,通过合同条款设置"技术保障措施"。
不是谁对谁错的问题,是两家公司的底线完全不同。
延迟发布Mythos模型
最能说明Anthropic有多"轴"的案例——
2026年,Anthropic本来准备发布最新模型Claude Mythos。
结果一测,发现这模型能力过于逆天:
能自主发现潜伏了27年的系统漏洞。
这意味着什么?
既能帮白帽黑客修漏洞,也能帮黑帽黑客搞事情。
Anthropic直接宣布延迟发布,转而启动"防御联盟"计划——只把模型授权给Apple、Amazon、Microsoft等40多家科技巨头,让他们先加固自己的系统。
等社会准备好了,再对外公开。
这波操作,被欧盟监管机构点赞:"这就是平衡技术创新与社会安全的典范。"
谁更"封闭"?
有意思的对比来了——
同样是"捂盘",两家走的路还真不太一样:
| Anthropic | OpenAI | |
|---|---|---|
| 最强模型 | Mythos,延迟发布 | GPT-5.4-Cyber,限制发布 |
| 谁能用 | 只给40家科技巨头 | 通过审核的安全供应商 |
| 门槛 | 必须是顶级大厂 | KYC认证的个人/团队也行 |
| 定位 | 闭源垄断,巨头优先 | 有门槛,但相对开放 |
所以现在的情况是:
- Anthropic:更封闭——只给巨头玩
- OpenAI:相对开放——通过身份验证(KYC)的个人和中小团队也能申请
曾经的"开放派"OpenAI,现在反而显得更"民主化"了。
这世界真奇妙。
一一一一一一一一一一一一一一一一一一一一
04. 两种哲学,到底谁更"正确"?
说到这里,你可能会问:那到底谁的路子更好?
说实话,这个问题没有标准答案。
因为它背后是两种完全不同的世界观。
OpenAI的信徒会说:
AI这东西,发展是第一位的。
你不跑,别人就跑。DeepSeek都已经在消费级下载量上超越ChatGPT了,你不赶紧迭代,等着被淘汰吗?
安全当然重要,但安全是在发展中解决的。先跑起来,边跑边修。
你看OpenAI的路线图多清晰:2026年实习生,2028年研究员,2030年通用人工智能。
速度才是硬道理。
Anthropic的信徒会说:
你知道为什么叫"人工智能",不叫"人工智慧"吗?
因为AI迟早会比人类聪明。
当AI比全人类都聪明的时候,你靠什么管它?
靠合同?靠外部防护栏?
No。
你得把规矩刻进它的"基因"里。
Anthropic有个实验叫"弱监督强模型"——
让一个小学老师(5亿参数的小模型)去监督一个天才高中生(40亿参数的大模型)。
结果:用AI研究员自动化调试,强模型恢复了97%的理想性能。
人类研究员用传统方法,只恢复了23%。
这意味着:未来我们可能不需要完全理解超级AI,只需要一个简单的"监督AI"和一套正确的原则。
这就是Anthropic押注的方向。
一一一一一一一一一一一一一一一一一一一一
05.选OpenAI还是Anthropic?
如果你只是想找个趁手的工具——
OpenAI生态更成熟,插件多、集成多,适合"快速上手"。
Anthropic更稳、更保守,适合对风险容忍度低的场景,比如金融、医疗、法律。
用个不恰当的比喻:
OpenAI像安卓手机,功能多、开放,但也容易中病毒。
Anthropic像苹果手机,封闭、安全,但自由度低一些。
最终的悬念
现在,OpenAI在冲刺IPO,Anthropic 上市募资规模600亿美元,仅次于SpaceX的史上第二大IPO。
两家的竞争,本质上是两种路线的竞争:
OpenAI相信"发展解决一切",先跑起来,边跑边修。
Anthropic相信"原则先于能力",先把规矩立好,再考虑跑多快。
但是——
2026年,两家都在捂盘了。
结论:殊途同归的"安全焦虑"
曾经,我们以为这是两种截然不同的哲学:
- OpenAI = 开放派,先跑先赢
- Anthropic = 封闭派,安全第一
但现在,剧本变了。
OpenAI开始限制最强模型发布,Anthropic只给40家巨头开放。
本质上,两家都在做同一件事:
捂住最强模型,别让它太快流出去。
为什么?
因为最强的AI,既能造福人类,也能毁灭人类。
两家的"安全焦虑",让他们殊途同归。
一一一一一一一一一一一一一一一一一一一一
📝小白话总结篇
- OpenAI越来越像商业公司,Anthropic越来越像技术修道院——但现在两家都在捂盘
- 2026年新格局:两家都开始限制最强模型发布,本质是"安全焦虑"
- OpenAI相对民主化(KYC),Anthropic只给巨头
- 从"开放vs封闭",变成了"殊途同归的安全焦虑"
- 普通人最该关心的:以后你想面对一个"被规则约束的AI",还是一个"边跑边修的AI"?
- 不管怎样,这场竞赛的结果,会深刻影响我们每个人的未来。
📃参考资料:
- OpenAI 2028 AGI路线图,36氪,2025-10-29
- Anthropic年化收入超300亿美元,今日头条,2026-04-10
- OpenAI限制前沿模型发布,IT之家,2026-04-09
- OpenAI发布GPT-5.4-Cyber,仅向安全供应商开放,OpenAI官方,2026-04-15
- Anthropic拒绝五角大楼合同,头条,2026-04-15
- OpenAI vs Anthropic安全哲学差异分析,头条,2026-03-25
- Dario Amodei:AI安全的"异教徒",新浪财经,2026-02-10
- Sam Altman国会听证会发言,新浪科技,2025-05-10
- Anthropic延迟Mythos发布,只给40家巨头开放,头条,2026-04-16
最后唠叨一句
看完觉得有点意思?欢迎关注我的公众号:AI小白话
不玩高深术语,只做你的专属小白解说员~
夜雨聆风