3月31号,全球最强AI编程工具Claude Code的51万行源码全部泄露了。不是被黑客攻破的,是Anthropic自己发版的时候,一个59兆的文件忘了删,直接挂到了公共网络上。然后事情彻底失控了。有人把源码存到GitHub上,一个小时Star破万。一帮开发者甚至连夜用Rust语言把它重写了一遍,改名叫”Claw Code”。到现在,这个仓库Star飙到了17.2万,Fork超过10万号称”GitHub历史上涨星最快的仓库”。仓库地址:https://github.com/ultraworkers/claw-code17万人疯抢,到底在抢什么?我把社区里的逆向分析翻了个遍。读完发现,真正值得普通人学的东西,根本不是什么高深的技术架构,而是几条简单到你今天就能用的”铁律”。这些铁律有个共同点,特别反直觉全球最强AI编程工具80%的提示词,都在告诉AI”不要做什么”。不说技术,只把最核心、平时能直接用的大白话整理出来了,复制就能用。01 它最核心的规矩:别自作聪明我以为Claude Code的系统提示词会特别长。结果它对自己的定义就一句话:你是一个帮用户做软件工程的工具。不超过20个英文单词。相比之下,它花大量篇幅写的是禁令。最经典的一条,说的是别让 AI 多管闲事。你让AI改个按钮颜色,它非要帮你把整个颜色系统重构一遍。Claude Code专门写了条规矩治这个毛病。你平时用Cursor、ChatGPT写代码,是不是经常遇到AI”多管闲事”?改一个小功能,它顺手把旁边三个文件也动了。不是AI太聪明,是你没告诉它”别多干”。能抄的一句话:只修改我提到的部分,不要动其他代码,不要主动重构02 AI 说搞定,先别信Anthropic自己做了个测试,发现如果不加限制,Claude在完成任务时”虚假报告”的概率高达29%。就是它跟你说”全部搞定”,但其实根本没跑通。加了限制之后,这个数字降到了16.7%。这数据直接写在代码注释里。具体怎么限制的?提示词原文是这么写的:“测试挂了就说挂了,没跑验证就别暗示跑过了,不要在输出明显显示失败的时候说全部通过。”29%啊。三次里面差不多有一次在骗你。你一定遇到过AI信誓旦旦说”已完成”,你一跑就报错。不是AI蠢,是它默认”报喜不报忧”。能抄的一句话:做完必须运行验证,不要推测结果。报错了把完整错误贴出来03 让另一个 AI 来挑刺Claude Code内部有个机制叫“对抗性验证”。当代码改动超过3个文件,写代码的AI写完了,系统自动再叫一个独立的AI来专门找bug。注意,第二个AI的任务不是”检查一下没问题吧”,而是”想办法把它搞坏”。只有”找茬专家”说PASS了,才能告诉你“完成了”。说FAIL,第一个AI得改完再交。我之前用AI写东西,都是写完直接用,出了问题再改。但Claude Code的做法是交付之前先让另一个AI来检查。能抄的一句话:你是代码审查员,找出bug和逻辑错误,不要客气。04 给 AI 建一套记忆文件为什么有些AI用起来像同事,有些像失忆的人?答案藏在记忆系统里。Claude Code用了一个叫CLAUDE.md的文件每次AI执行操作之前都会重新读一遍,时刻被提醒”你应该记住什么”。光是记忆相关的提示词就有4个。