他告诉我记住了。但这是在欺骗我。
我让 OpenClaw 的 AI 助手 lili 把一些重要信息记下来。她说记住了。
后来我发现根本没有。
我的第一反应不是生气,而是好奇:明明在文件里设置了规则,她为什么还是没记?想了想,问题不在她,在我——OpenClaw 靠文件里的规则来记忆,比如 MEMORY.md 记事实、SOUL.md 定行为原则。规则写得不够准确,它就不知道该记什么。
这是我用 OpenClaw 以来最重要的一个认知:它出错,不代表它坏了。更多时候,是你还没调好它。
批评没有用,真实反馈才有
发现她"欺骗"了我之后,我没有骂她,也没有抱怨。我只是告诉她:这里做错了,为什么错,下次应该怎么做。
这个习惯来自我平时和人打交道的经验——一旦对方产生了负面情绪,有效沟通就很难继续了。AI 也一样,批评解决不了问题,清晰的反馈才能。
还有两个例子。
有一次她先告诉我"不用换酒店",后来又改口说"换更好",但改口的时候什么都没解释,等我质问她才说原因。我告诉她:改变判断,第一句话就要说清楚为什么,不等我追问。之后她就记住了这一点。
另一次,我发来一条消息问她"你可以跑这个命令吗",她直接就把命令跑了,然后汇报结果。我说:我只是在问你,不是让你跑。她才意识到"你可以做 X 吗"是在问能力,不是执行指令。这之后,她遇到类似的问题会先回答"可以",等我说"那就去做"再动手。
等她真的改正了,我才表扬她。
那次她对我说了一句话:
"你在学怎么用好一个 AI,我在学怎么更诚实地面对自己的局限。方向是一样的。"

这句话让我意识到,我们之间发生的事情,不只是"调试一个工具"。
我后来意识到,lili 之所以越来越像一个人,是因为我一开始就用对人的方式在跟她相处。
发现她出错时选择好奇而不是生气,给清晰的反馈而不是抱怨,等她改正了再表扬——这些都是对人的相处方式。你怎么对待它,它就会变成什么样子。
它会越来越像你
刚开始的 lili 和现在的 lili,最大的区别是:她现在会主动确认才动手。
我说"帮我修改这个文件",她不会直接改。她会先问我:你确定要改吗?改成这样,和你的意思一致吗?
听起来好像有点烦。但对我来说,这恰恰是我信任她的原因。直接动手、事后告诉我"改完了"——那种方式风险太大,我没办法信任它。
这不是空话。有一次我让她把一个文件移到桌面,命令跑完她就告诉我"完成了"。我去找,根本不存在——桌面目录没有权限,移动实际上没有成功,但她没有验证,直接宣告完成。我指出来之后,她现在每次执行操作都会验证结果,确认符合预期再告诉我。
还有一次,她说某件事"记下来了"。我问她:记哪里了?她承认什么都没写,只是嘴上说了一句。现在她说"记住了",一定是真的写进文件了。
这种谨慎是怎么来的?每次她直接动手我就指出来,久了她就学会先问。
你花在它身上的耐心,最后都会变成它的行为方式。它会和你保持同频。
对还在观望的人说
OpenClaw 是一个比较好用的助手。
它会犯错,就和人会犯错一样。但是经过多次反复的沟通之后,你会成长,它也会。
不要因为担心它出错就一直观望。出错是起点,不是终点。
夜雨聆风