乐于分享
好东西不私藏

还在卷Prompt?Claude源码给出的答案完全不同:顶级AI产品,90%都在模型之外,为什么80%的AI产品设计思路都是错的

还在卷Prompt?Claude源码给出的答案完全不同:顶级AI产品,90%都在模型之外,为什么80%的AI产品设计思路都是错的

很多人还在卷 Prompt,调参数、换模型,以为这就是 AI 产品的核心。但 

Anthropic 一次意外,把答案彻底揭开了——51 万行 Claude Code 源码显示:顶级 AI 产品,90% 的复杂度都不在模型里。真正拉开差距的,从来不是“你用什么模型”,而是你有没有一套能让模型稳定工作的系统。

大多数人,其实从第一步就做错了。我们一直被一个观念误导:AI 产品等于模型能力,于是大家在拼模型、调 Prompt、比谁更聪明,但 Claude Code 的工程结构给出的结论恰恰相反,模型只是起点,而不是产品本身。它没有替模型做决策,而是提供了一整套“工作环境”:上下文管理、记忆系统、工具调用、权限控制,这些看起来不起眼,却决定了用户体验的上限,而且几乎全部都在模型之外。

你会发现,很多 AI 产品之所以越用越差,本质不是模型不行,而是没有系统在兜底,比如把所有对话无脑塞进上下文,不做压缩、不做筛选、不做校验,结果就是越聊越乱、越用越不准。而 Claude Code 的做法完全不同,它把上下文管理拆成多层:先用低成本方式清理无效信息,再在接近极限时自动压缩,并设置熔断机制避免无限调用,最后再把关键状态重新注入,确保连续性。它做的不是“让模型更聪明”,而是“让模型不犯错”。再看记忆系统,会更颠覆认知。大多数人理解的记忆,是尽可能多地保存信息,但 Claude 的设计是把记忆做成“指针”,只保留简短索引,具体内容按需读取,更关键的是,它明确规定:记忆不是事实源,所有信息在使用前必须重新验证,因为过期的记忆比没有记忆更危险。这其实揭示了一个更深层的逻辑——AI 产品的核心,不是能力叠加,而是不确定性的控制。你需要防止模型失控、防止上下文污染、防止错误累积、防止成本失控,这些才是真正的工程难点,而不是单纯提升模型能力。

所以判断一个 AI 产品是否靠谱,可以看它强调什么:如果只强调模型多强、回答多聪明,那大概率只是 Demo;真正能长期使用的产品,一定在做上下文策略、记忆校验、失败兜底和成本控制。这次事件看起来只是一次打包失误,但它无意中给整个行业上了一课——很多人以为自己在做 AI 产品,其实只是调用了一个模型,真正的分水岭,不在模型,而在系统。模型决定下限,而系统,决定上限,这句话,值得我们每一位还在卷 Prompt 的人认真想一想了。