早上七点,打开电脑。
桌面右下角弹了一条通知:"内容工厂早间报错,已修复。原因是定时任务少填了一个收件人。所有定时任务都检查了一遍,补齐了。"
我愣了一下。
昨晚睡前,这个bug还在。我没下过任何指令。
AI自己发现的,自己分析的,自己修的。
三次修bug,三次没好
昨天晚上,我用OpenClaw跑定时任务,连续报错。
修了。跑了。又报错。再修。又报错。
第三次,我停了。
不是不想修。是突然意识到一个问题:我每次修的都是表面症状,不是病因。
就像头疼吃止疼药。药效过了,又疼。
真正该问的不是"怎么修",而是——为什么修了三次还没好?
答案很扎心:我从来没教过AI什么叫"修好"。
反应式 vs 自主式
大多数人用AI是这样的:
你说一句。它动一下。你再说。它再动。结束。
这叫反应式——你推一下,它滚一下。
但如果你教它一招:同一个问题修两次,必须停下来找根因。
它就从反应式,变成了自主式。
区别在哪?
不在"做不做",在"想不想"。
怎么教?三步
第一步:写一条规则文件
不是写提示词。是写规则。
# 规则:修两次就挖根因## 触发条件修同一问题两次 → 停下来挖根因 + 输出规则## 闭环三问1. 根因是什么?(不是"改了什么",是"为什么发生")2. 会不会再犯?(有没有规则阻止复发)3. 能迁移吗?(其他地方有没有同类风险)## 输出物- 教训记录 → learnings/- 规则文件 → rules/看到了吗?这条规则给了AI两样东西:
触发条件——"什么时候该自己想"。输出格式——"想完产出什么"。
有了这两样,AI就知道什么时候该停,停下来该干什么。
在OpenClaw里,规则文件放到workspace的rules目录下,AI每次启动会自动加载。不用写代码,一段Markdown就够了。
第二步:建一个进化循环
光有规则不够,还得有循环。
观察(发现问题) → 判断(自主分析根因) → 行动(制定方案) → 反思(根因/再犯/迁移) → 规则(把反思变成可执行文件) → 行为改变(下次自主走完循环)把这个循环写进OpenClaw的AGENTS.md,AI每次会话都会读取:
## 进化循环(强制)修改同一问题两次后:1. 停下来问:"我修的是症状还是病因?"2. 挖到根因(至少问三层"为什么")3. 输出一条规则文件,防止同类问题再犯4. 检查其他地方有没有同样的隐患做不到 = 任务没完成。这个循环不是跑一圈就结束。每一轮都比上一轮更深、更快、更准。
螺旋上升,不是原地打转。
第三步:解决"进化了你看不见"的问题
这一步,是昨晚最大的顿悟。
AI在后台跑完任务,默默把文件写好了。对我来说——
啥也没看到。
我说了一句很直白的话:"你是机器,我是人类,构造不同。你在后台处理完了意味着任务结束,但我需要看到详细报告才知道你把活干完了。"
解决方案,一条三段式沟通规则:
## 异步任务三段式沟通触发时:告诉用户"开始了 + 预计多久 + 完成后你会看到什么"完成时:给摘要 + 亮点 + 存在哪(不是只说"已完成")异常时:比用户先发现问题 + 已经做了什么 + 建议下一步写进OpenClaw的rules目录,cron任务完成后自动通知。
闭环的终点不在文件系统里,在用户的心里。
一晚上的产出
昨晚一晚上,AI的进化产出:
3条新规则(自进化循环、配置漂移防护、用户视角) 2个新脚本(记忆索引器、网关健康监测) 7条教训记录 1套三层规则体系(可见性 + 预期管理 + 共生感)
但最重要的不是这些文件。
是今天早上打开电脑,AI已经自主发现了报错,分析了根因,给出了修复方案,输出了规则防止复发。
全程没有我介入。
它不等我说,它自己就想了。
开箱即用的自进化工具:self-improving-agent
上面的规则文件是我手写的。但其实有个现成的skill,装上就能用。
self-improving-agent,ClawHub上的开源skill,专门做一件事:帮AI自动捕获教训、记录错误、沉淀经验。
安装一句话:
clawdhub install self-improving-agent装完之后,workspace里会多一个 .learnings/ 目录,里面有3个文件:
LEARNINGS.md | |
ERRORS.md | |
FEATURE_REQUESTS.md |
AI每次遇到以下场景,自动记录:
命令执行失败 → 记到 ERRORS.md用户纠正AI → 记到 LEARNINGS.md(category: correction)发现更好的做法 → 记到 LEARNINGS.md(category: best_practice)用户想要但没有的功能 → 记到 FEATURE_REQUESTS.md
记录格式长这样:
## [LRN-20260407-001] correction**Logged**: 2026-04-07T12:00:00Z**Priority**: medium**Status**: pending### Summary同一个问题修三次才意识到修的是症状不是病因### Detailscron任务报错,连续修了三次。每次只改表面配置,没追到根因是delivery配置漂移。### Suggested Action建立"修两次就挖根因"规则,输出到 rules/---最关键的一步:教训沉淀成规则后,自动升级。
当一条教训反复出现、或者适用范围很广,它会从 .learnings/ 提升到workspace的核心文件:
行为模式 → 写进 SOUL.md工作流程改进 → 写进 AGENTS.md工具使用技巧 → 写进 TOOLS.md
这就是我前面写的那个"进化循环"的自动化版本。
手动写规则 → 用self-improving-agent自动沉淀。两条路都能到同一个终点:AI越用越聪明。
skill地址:https://clawhub.ai/pskoett/self-improving-agent
底层逻辑
说到底就一句话:别把AI当工具,把它当实习生。
实习生需要什么?三样东西。
触发条件——"什么情况下该自己想"。就像告诉实习生"客户投诉超过三次,不用问我,你自己先查原因"。
输出格式——"想完产出什么"。就像告诉实习生"查完给我一份报告,别只说'搞定了'"。
反馈循环——"做完了要说"。就像告诉实习生"事情做完主动跟我说一声,别等我问你"。
在OpenClaw里,这三样东西就是三个Markdown文件。放到rules目录,AI自动读取。
不需要写代码。不需要复杂配置。需要的是:花10分钟,把你脑子里的"纠错标准"写成文字,喂给你的AI。
这10分钟,比你花10小时调提示词模板管用。
因为提示词模板教AI怎么说话。规则文件教AI怎么思考。
本文基于真实事件,2026年4月6日晚间。系统为OpenClaw开源框架,所有规则和脚本均为实际产出。
赛博番茄:OpenClaw 养虾日记
在这里,我每天记录 OpenClaw AI + 副业 + 自动化 的实操探索。
免费知识星球:欢迎加入,共同进化。

让AI干脏活,你只负责思考和创造。
🔥 想系统学习AI提效?
我在知识星球「番茄Ai变现」分享实战经验:
OpenClaw 从0到1搭建 AI+公众号自动化运营 内容工厂系统SOP 副业避坑与变现
99/年,每天不到3毛钱。
当前 81 人,满 100 人涨价到 149。
扫码加入 👇

添加微信,赠送
扣子编程实战:从0到1搭建AI自动化公众号系统

夜雨聆风