Claude Code 源码泄露后,我总结了让 AI 变聪明的 9 条铁律
Claude Code 源码泄露,闹得沸沸扬扬。
很多人看完惊呼:”原来如此,我自己也能做大模型了!”
泼盆冷水:你搞错了。Claude 是大模型,Claude Code 只是它的”使用说明书”。
真正值钱的,不是技术细节,而是 Anthropic 工程师们用无数坑换来的9 条提示词铁律。
普通人今天就能用,用了就见效。
AI 编程,用好 AI,比造 AI 更重要

❶ 提示词别写”小作文”,拆成模块才好用
平时你用 ChatGPT,提示词是不是这样:
“你是专业文案编辑,帮我把这段文字改得口语化,别太书面,控制在 300 字以内,分 3 段,每段一个核心观点。”
看起来没问题?其实这段话里混了四种东西:身份、规矩、格式、任务。全搅在一起,想改任何一个都得重读全文。
Claude Code 的做法:拆成独立模块。
【角色】专业文案编辑【规则】口语化,不用书面语【格式】300 字以内,分 3 段【任务】改写下面这段文字
好处立竿见影:
-
改字数?只动【格式】 -
换任务?只改最后一行 -
加规矩?在【规则】里补一条
把前三块存成模板,每次只换任务。 亲测效率翻倍。
❷ 告诉 AI”不准做什么”,比教它”怎么做”管用一百倍
翻源码最大的收获:Anthropic 工程师用得最多的词是”不准“。
-
不准擅自加你没要求的东西 -
不准没看原文就修改 -
不准自己编答案 -
不确定时不准猜
为什么?因为 AI 最大的问题不是不会做,是太爱自作主张。
你让它改文案,它”顺手”加几句;你让它翻译,它”优化”你的表达——结果意思变了。
试试加上这四条禁令:
不要添加我没提到的内容。不要改变原文的意思。不确定的地方保留原文。有疑问,先问我。
加上之后,AI 老实多了。这些禁令比”请认真仔细完成”管用一百倍。
源码里有句精辟的话:“三行重复的内容,好过一个过早的抽象。”
大白话:宁可有点重复,也别搞一套谁都看不懂的复杂结构。简单直接,别整花活。
❸ 重要的话,说两遍才管住
源码有个细节:
Claude Code 压缩对话记忆时,有条规则——不准调用工具,只能输出纯文本。
这条规则在提示词里出现了两遍:开头一遍,结尾一遍。
为什么?因为 AI 能看到工具列表,新一代模型会忍不住手痒。但压缩记忆只有一次机会,工具调用被拒就没输出了,整个压缩废掉。
一遍不够,得说两遍。
这个技巧你也能用。如果有条规则你特别在意,开头说一遍,结尾再强调一遍。
比如你最烦 AI 用成语:
【开头】规则:全文不要用成语和四字词语【结尾】再次提醒:不要用成语和四字词语
AI 和人一样,说一遍它可能选择性忽略,说两遍印象就深了。
❹ AI 的记忆,真没你以为的那么好
很多人以为跟 AI 聊天,它会记住你说的每句话。
错。
聊到一定长度,早期对话会被自动压缩成摘要。你的原话没了,只剩总结。细节没被总结进去,就丢了。
而且这个过程不会通知你。聊了两小时,中间可能已被压缩好几次。
知道这个后,做两件事:
- 重要的需求,开头说完,中间再强调一次
。前面被压缩了,后面原文还在。 - 对话太长主动开新会话
,自己把关键信息带过去,比让 AI 自动压缩靠谱。
❺ 给 AI 找个”唱反调”的搭档
源码里有个专门的验证角色,设定就一句:
“你的任务不是确认能用,而是尽量找出问题。”
它还预置了一套怼 AI 的话术:
-
AI 说”看起来没问题”→ 怼:”看起来不等于验证过,实际试一下” -
AI 说”应该没事吧”→ 怼:”应该不是验证,试一下”
这个思路你也能用。
AI 写完文案,别直接用。另开一个对话,把文案贴进去,告诉它:
“你的任务是挑毛病。找出所有不通顺、逻辑有问题、可能引起误解的地方。”
一个干活,一个检查。 两轮下来,质量吊打单 AI。
双 AI 协作
1+1>2
❻ AI 关掉后,其实在”偷偷做梦”
源码里有个叫 Dream 的系统。
你不用它时,它在后台自动整理记忆:过时的删掉,矛盾的更新,零散的合并。
有句话很扎心:“过时的记忆比没有记忆更危险,因为 AI 会当真。”
这个思路对管笔记也有用。
很多人什么都往笔记里塞,收藏几百篇一篇没看。时间一长,过时和正确的混一起,找东西更难。
定期清理,知道什么不该记,比拼命记更有用。
❼ 让 AI 先复述,再动手
源码有条硬规则:AI 必须先读文件内容,才能修改。 没读就改,系统直接报错。
为什么?因为 AI 会凭印象乱改。它觉得你第三段写的是 A,其实是 B,它就按 A 改了——改了个寂寞。
你怎么用?
让 AI 改文章、改方案时,先加一句:
“请先复述原文核心要点,确认理解对了再开始。”
这步看起来多余,但能避免 AI 凭幻觉乱改。尤其是长文章,AI 很容易记错前面内容。先复述等于对答案,错了当场纠正。
❽ 别让 AI 猜,不知道就说不知道
源码明确写着:“不知道就说不知道,不要编造或预测。”
AI 有个毛病:它不会说”我不知道”。
你问它一个没有信息的问题,它不会承认不知道,而是非常自信地编一个看似合理的答案。这就是幻觉。
怎么防?提示词里加一句:
“如果不确定或信息不足,直接告诉我,不要猜测或编造。”
加上后,AI 偶尔会回复”我不确定这个信息是否准确”。这时候你就明白:它之前那些斩钉截铁的回答,可能有一部分也是编的。
敢说不知道的 AI,比什么都敢说的 AI 靠谱。
❾ 先说结论,别铺垫
源码里的提示词写着:
“先说答案或行动,再说理由。一句话能说完别用三句。”
太实用了。
你是不是遇到过:问 AI 个简单问题,它先科普三段背景才给答案?让它帮你做决定,它先把方案 A/B 的优缺点全列一遍,最后才说选哪个?
提示词里加一句:
“先给结论,再解释。回复简短直接。”
加了这句,AI 废话少很多,直接给你要的,需要解释的放后面,不需要的就不说了。
写在最后
Claude Code 源码泄露,最大价值不是让人误以为”我也能做大模型”,而是让我们看到:
用好 AI,比造 AI 更重要。
这 9 条铁律,不是什么高深技术,而是 Anthropic 工程师实战踩坑踩出来的经验。
普通人今天就能用,用了就见效。
AI 时代已经来了。区别只在于:
你是那个被 AI 替代的人,还是那个会用 AI 的人。
夜雨聆风