乐于分享
好东西不私藏

我让OpenClaw学会了像hermes一样"自进化"——且可控的AI Agent成长系统

我让OpenClaw学会了像hermes一样"自进化"——且可控的AI Agent成长系统

前段时间看到 Hermes 社区大肆鼓吹“自进化”概念,但我认为这与 OpenClaw 的生态哲学大不相同。OpenClaw 拥有如此深厚的生态积淀和维护群体,进化方法有的是,关键在于如何进化。

根据社区反馈,Hermes 的进化逻辑太“野”了——它是激进且不可预测的,有时学到的所谓“经验”甚至会将系统带偏。而我追求的是:可控的自进化。

在吸收了各种自进化设计经验后,我花了 2 周时间对 吸取一些skill经验 进行了深度改造,将其打造为一个“会吃一堑长一智”的系统。在这个系统里,每一次纠正都被精确记录,每一个重复的错误都被聚类分析,而每一步进化都必须经过我的确认。

今天,我把这两个月的设计思考和盘托出,分享我开发的这个 Skill:self-improvement-loop,由1个hook、5个机械脚本、1个md文档组成。相比目前官方下载量最高的自进化 Skill(self-improving-agent),self-improvement-loop它的能力大大超前。与 Hermes 的“黑箱进化”不同,我这个 Skill 核心在于可控性。

我之所以没有设计skill让 OpenClaw 进行“全自动递归改进”,是因为这件事目前不仅不能做,我也不推荐做。要实现真正有效的进化,必须满足两个前提:

1.模型处于顶级第一梯队(智力足以审视自身错误);

2.进化目标必须与 Agent 职责及主人期望严密对齐。

否则,它只会把工作流改得一团乱,到时你只能蒙在被子里哭。对齐目标不仅需要模型好,更需要精细的调教,而这种调教能力并非人人具备。

所以我主张采取一种**“审核制进化”**而非“全自动进化”。AI 的自我进化如果不加约束,本质上就是一种“高智商的失控”。我没有设计让它每晚主动吸取记忆,因为配合 OpenClaw 现有的“梦境”机制,该 Skill 已经能完美实现持久型 Agent 的技能规范进化、规则 MD 进化。

若需要安装,给公众号发送”自进化”,可获得clawhub该skill的安装链接,进去让agent使用脚本安装即可。

该skill请看详细图文演示: