源码泄漏、模型造假、偷偷降智、封杀开发者——Anthropic这个月到底发生了什么?
文 | 老K(下班后的AI研究员)
如果你这两周一直在用Claude,你可能已经发现了——它好像变笨了。
不是错觉。
今天腾讯新闻发了一篇完整的Anthropic事件整理,把过去三周发生的所有争议串成了一条时间线。看完之后我的反应是:这家公司到底怎么了?
从源码泄漏到模型造假,从偷偷降智到封杀开发者,再到预告砍掉百万上下文窗口——Anthropic在短短三周内完成了一套”连环翻车”组合拳。
今天我把这条完整的时间线拆给你看,帮你搞清楚三件事:发生了什么、为什么会这样、对你有什么影响。
一、完整时间线:三周内连翻七个跟头
3月26日 | CMS配置错误,3000份文件泄漏
Anthropic内部CMS(内容管理系统)出了配置错误,约3000份未发布文档意外泄露到公网。其中包含了当时还没公布的Claude Mythos模型的相关信息。
一家估值3800亿美元的AI安全公司,被自己的CMS配置搞了个大漏勺。讽刺不?
3月31日 | Claude Code源码泄漏
CMS的事还没收拾完,Claude Code的源代码也泄漏了。连续两次重大安全事故,暴露了代码管理的严重漏洞。
4月4日 | 封杀第三方工具OpenClaw
Anthropic突然限制第三方工具使用Claude订阅额度,首当其冲的就是OpenClaw(GitHub星标13.6万的开源项目)。更过分的是——系统会扫描用户的System Prompt,一旦发现包含”OpenClaw”关键词就直接封号。
想象一下:你花了20美元订了Claude,因为在Prompt里写了”OpenClaw”这个词,账号就被封了。
4月7日 | Mythos发布——”最强模型”翻车
千呼万唤,Claude Mythos Preview终于发布了。官方宣传极其夸张:发现了主流操作系统、软件和浏览器中数千个未被发现的高危漏洞,包括一个藏了27年的OpenBSD漏洞。
Anthropic以”太危险”为由拒绝公开发布,只给AWS、苹果等巨头内测。
但随后研究员打脸了:复测发现,Mythos发现的所谓”漏洞”多是老旧软件上的已知问题,隔壁开源的GPT-OSS-20b同样能发现。Mythos并非”强到不敢发布”,而是“营销得太猛,实际不配”。
4月8日 | 推出Managed Agents平台
发布云端Agent平台,提供Agent Harness编排引擎、工具调用、凭证管理等基础设施。
业界解读:这是Anthropic从“卖模型”转向”卖基础设施”的战略信号——先封杀第三方工具,再推自家的替代品。
4月10日 | OpenClaw作者被封号
OpenClaw开发者Peter Steinberger的Claude账户被封禁。舆论炸锅后,Anthropic几小时内光速恢复了他的账号。
业界猜测原因:Peter最近加入了OpenAI。封号不是因为违规,是因为”叛变”。
持续进行 | Opus 4.6″偷偷降智”
这可能是影响最大的一件事。
用户发现Claude Opus 4.6的思考长度从2200 token被压缩到了600 token——降了67%。AMD总监的实测日志显示,Opus 4.6的性能已经倒退到比Opus 4.5还差。
Anthropic的官方解释是”优化延迟和token效率”。翻译成人话就是:为了省钱,偷偷把你买的”顶配版AI”降成了”乞丐版”。

开发者社区对Anthropic的愤怒已经到达顶点
二、Claude Code缓存失效:花10倍的钱,享受更差的服务
如果只是降智,勉强还能忍。但新版Claude Code还出了缓存失效问题:
Token消耗速度暴增到原来的10倍以上。
正常情况下写一段代码消耗1万token,缓存失效后可能消耗10万token。
等于你的钱在以10倍速度燃烧,而输出质量还不如之前。
更绝的是预告:4月30日,Sonnet 4.5和Sonnet 4的百万上下文窗口将下线。
也就是说:降智+烧钱+砍功能,三连击。
三、Anthropic到底想干什么?——商业动机拆解
表面上看是一系列”翻车事故”,但如果你把所有事件串起来,会发现一条清晰的逻辑线:
Anthropic正在从”卖模型”转向”卖基础设施”
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
简单说:Anthropic想把Claude从一个”好用的AI工具”变成一个”你离不开的AI平台”——先让你依赖,再慢慢涨价、降质。
这个策略是不是很眼熟?对,就是当年的Uber——先烧钱补贴打车超便宜,等你卸载了出租车App,再慢慢涨价。

Anthropic的战略转型路径图
四、对普通用户的3个实操建议
1永远不要只依赖一个AI工具
Opus今天降智67%,明天可能降更多。你的工作流不能被一家公司绑架。建议至少准备2-3个备选:ChatGPT + 千问 + DeepSeek三件套,哪个好用用哪个。
2监控你的AI使用成本
Claude Code缓存失效导致token消耗暴增10倍。如果你用API付费,一定要设置用量上限告警。别月底收到账单才发现自己”被消费”了。
3关注4月30日的”百万上下文”下线
如果你有需要处理超长文档的工作流,尽快测试替代方案。GPT-6明天发布,带200万Token上下文——这可能是完美的迁移时机。
五、AI巨头的”信任危机”——你还能相信你用的AI吗?
这三周的事件,本质上暴露了一个更深层的问题:
你付了钱订阅的AI服务,提供商可以随时降质、砍功能、改规则——而你毫无办法。
Opus 4.6的思考深度从2200 token砍到600 token,用户是怎么发现的?不是官方通知的,是用户自己测出来的。如果没人测,你可能永远在用一个被”偷偷阉割”的AI而不自知。
这不只是Anthropic的问题。OpenAI也干过类似的事——GPT-4刚发布时很强,半年后很多用户反映”变笨了”。
AI服务和传统软件不同。传统软件买了之后功能不会变。但AI是”活的”——提供商可以在服务器端随时调整模型参数,你根本察觉不到。这是整个行业的信任问题。
我的态度很明确:不要对任何一家AI公司有信仰。用好AI,但不要依赖AI。更不要依赖单一的一家AI。
Anthropic这个月的翻车实录,给所有AI用户上了一堂生动的课:
1. 你买的AI服务可能随时被”降档”——建议定期测试你常用AI的输出质量
2. “最强模型”的宣传可能是营销噱头——Mythos的”27年未解漏洞”被证实是夸大
3. AI公司的利益和用户的利益不一定一致——当省钱和服务质量冲突时,公司会选择省钱
明天GPT-6发布。在兴奋之余,记住Anthropic的教训:再强的AI也不值得盲目信仰。保持冷静,保持多元,保持清醒。
作者 | 老K
公众号 | 下班后的AI研究员
31岁产品经理 / AI行业深度观察 / 不信仰任何一家AI公司
素材来源:腾讯新闻4/13、凤凰网科技4/12、163、36氪、新智元、Anthropic官方
夜雨聆风