乐于分享
好东西不私藏

AI 助手会"自我进化":聊聊 AutoClaw 独有的 Hermes 进化功能,用过就回不去了

AI 助手会"自我进化":聊聊 AutoClaw 独有的 Hermes 进化功能,用过就回不去了


我用的 AI 助手会”自我进化”:聊聊 AutoClaw 独有的 Hermes 进化功能,用过就回不去了

一个真实场景

你跟 AI 助手说了一件事,比如”以后写代码的时候先写测试用例”,它说”好的,我记住了”。然后下一次对话,它又忘了。再下一次,还是忘了。

你以为它”记住了”,其实它只是在当前对话里配合你。会话一结束,一切归零。

这不怪它——这是所有 AI 产品的默认行为。每次对话都是独立的,上下文不会跨会话保留。你说的那些偏好、习惯、工作方式,全是一次性的。

但是 AutoClaw(小龙虾)有一个功能叫 Hermes 自我进化,能让你说过的东西,真的”永久记住”。

Hermes 是什么?一句话解释

Hermes 是 AutoClaw 内置的”经验沉淀系统”。

每次你和 AutoClaw 完成一个比较复杂的任务后(比如写了一篇长文、跑通了一个项目、排了一个 bug),Hermes 会在后台自动分析这次对话:

  • • 你有没有纠正它什么?
  • • 你有没有教它一个新方法?
  • • 它在执行过程中踩了什么坑?
  • • 有没有发现可以复用的模式?

如果发现值得记住的东西,它会自动生成一条”进化提案”——不是直接修改,而是先写一个草稿,等你审批。你觉得 OK,点一下批准,这条经验就永久写入了它的”记忆文件”。以后每次新对话启动,它都会自动加载这些经验。

你纠正它一次,它一辈子都记得。

和其他 AI 产品的本质区别

市面上主流的 AI 产品,提升助手能力的方式无非两种:

方式一:手动写 System Prompt。 你自己在配置里写”你是一个专业的代码助手,回复要简洁,先写测试再写实现”。缺点是:你得自己写,而且只能写一些通用规则,没法覆盖具体的经验教训。

方式二:手动维护 Memory 文件。 有些产品允许你编辑一个记忆文件,每次对话时注入。缺点还是:你得自己总结、自己写。

Hermes 做了什么不同的事?它让你不用手动做这些。

你正常使用 AutoClaw,该纠正纠正,该指导指导。Hermes 在后台默默观察,发现有价值的东西就自动生成提案。你只需要做一件事:批准或拒绝。

整个过程:

你正常使用 AutoClaw       │       ▼Hermes 在后台自动分析对话       │       ▼发现值得记住的经验?   │         │  是         否   │         │   ▼         ▼生成进化提案  → 不打扰你(草稿状态)   │   ▼你审阅后:批准 / 拒绝 / 修改   │   ▼批准 → 永久写入记忆文件拒绝 → 记录到"已拒绝"归档修改 → 更新草稿,再次提交

零额外操作成本。你不需要开一个”设置记忆”的页面,不需要写 YAML,不需要总结”教训总结”。你只是正常使用,它自己学习。

触发条件:不是每句话都会进化

Hermes 不会对每一句闲聊都触发进化检查。它的设计非常克制:

只在满足以下条件时才启动分析:

  • • 当前轮次已经形成了完整结果(不是聊到一半)
  • • 至少出现一个”强信号”或两个”中信号”

强信号(一条就够触发):

  • • 你明确纠正了它
  • • 你说”以后都这样做/不要这样”
  • • 你教了它一个可复用的新 workflow
  • • 它经过明显失败/重试后才成功

中信号(需要两条才触发):

  • • 同类任务中出现了清晰的步骤模式
  • • 某个工具的环境坑点值得长期记住
  • • 同一偏好在近期被重复提到

以下情况直接跳过:

  • • 纯闲聊
  • • 简单问答
  • • 工具调用很少且没有纠正
  • • 一次性需求
  • • 已经有同样的提案待处理或最近被拒绝

这意味着什么?它不会像某些产品那样,动不动就弹一个”是否保存到记忆?”的提示烦你。 只在真正有价值的时候才出来,保持安静。

进化的内容流向:写到哪里?

Hermes 把学到的东西写到四个不同的文件里,每个文件有明确的分工:

文件
写什么
举个例子
AGENTS.md
行为规则、流程规范、安全边界
“写代码前先写测试用例”
TOOLS.md
工具使用经验、环境坑点
“baoyu-post-to-wechat 的 main.ts 在 scripts/ 下”
MEMORY.md
用户偏好、长期事实
“用户偏好简洁回复,不喜欢废话”
SKILL.md
可复用的多步骤 workflow
“发公众号文章的完整流程:md→html→草稿箱”

这个设计很巧妙。它不是把所有东西都丢进一个”记忆”文件里,而是按类型分类存储。行为规则和行为规则放一起,工具经验和工具经验放一起,用户偏好和用户偏好放一起。

这有什么好处?不同类型的知识有不同的生命周期和更新频率。 你的工具路径可能每周都在变,但你的行为偏好可能几年都不变。分开放,管理起来更清晰。

一个真实的进化提案长什么样?

这是 Hermes 实际工作时的一个流程(我简化了一下):

场景: 我让 AutoClaw 写一篇公众号文章,然后用 baoyu-skills 发到草稿箱。中间经历了多次路径探索和工具调用失败。

Hermes 分析过程:

  1. 1. 检测到 39 次 tool call(≥8,满足”struggle”信号)
  2. 2. 发现 baoyu-post-to-wechat 的路径不在常规位置,值得记住
  3. 3. 发现 API 方式因 IP 白名单失败,降级到浏览器方式,值得记录
  4. 4. 但没有用户明确纠正,且这些是单次工具使用经验
  5. 5. 最终判断:NOTHING_TO_SAVE(不生成提案)

是的,Hermes 也会判断”不需要记住”。不是所有经验都值得沉淀。它有一个质量标准:必须同时满足”具体、可执行、长期有效、非一次性、对未来有帮助”才会生成提案。

这就是它的”审慎”——宁可漏掉一条经验,也不应该用一堆无用的记忆文件污染上下文。

进化强度可调:从”佛系”到”激进”

Hermes 有一个”进化强度”参数,可以按 workspace 独立设置:

  • • 100%(激进):强信号或两个中信号都触发。适合刚开始使用、希望快速积累经验的阶段。
  • • 50%(审慎):仅强信号触发,中信号全部跳过。适合已经稳定运行、不希望被打扰的场景。
  • • 0%(关闭):完全不做进化检查。适合不需要自我进化的场景。

我目前用的是 100%,因为还在磨合阶段,希望 AutoClaw 尽快适应我的工作习惯。等积累了足够多的经验规则后,可能会调到 50%。

“Evolution Echo”:学以致用的闭环

Hermes 还有一个很细节的功能叫 Evolution Echo(进化回声)。

当你批准了一条进化规则后,AutoClaw 在后续对话中应用这条规则时,会简短提一句

“(基于之前的经验:写代码前先写测试用例)”

就这么一句话。不会重复说,只在规则真正影响了当前操作时才提。

这个设计的意义是什么?让你知道你的”教导”真的起作用了。 很多时候我们教 AI 一个习惯,但不知道它到底有没有记住。Evolution Echo 就是给你一个确认:”你之前说的那条,我这次用上了。”

这个功能解决了什么根本问题?

让我退一步,说一个更本质的问题。

所有 AI 助手都有一个致命缺陷:它们不会随着使用时间变强。

你用 ChatGPT 一年和用一天,体验是一样的。你用 Claude 一年和用一天,也是一样的。它们的知识是静态的——不管你跟它们聊了多少次、教了多少东西,下一次打开还是一个全新的、对你说的话一无所知的 AI。

这就像你雇了一个助理,每天教他一些东西,但第二天他全忘了。你能想象吗?

Hermes 解决的正是这个问题:让 AI 助手”越用越懂你”。

  • • 你纠正过一次的错误,它不会再犯
  • • 你教过的工作流程,它下次自动按这个流程走
  • • 你踩过的坑,它帮你记住,下次避开
  • • 你的偏好和习惯,它主动适应

这不是什么花哨的功能。这是 AI 助手从”工具”到”伙伴”的关键一步。

业务延伸:这个功能有多大想象空间?

场景一:团队知识管理

一个团队共享一个 AutoClaw workspace。新入职的同事不需要从零开始培训——因为 AutoClaw 已经通过 Hermes 积累了所有团队的”隐性知识”:

  • • 代码规范(从 code review 纠正中学习)
  • • 部署流程(从每次发布踩坑中积累)
  • • 客户偏好(从每次沟通反馈中记住)

新同事直接开始工作,AutoClaw 自动帮他遵守所有”约定俗成”的规则。相当于一个活的、持续更新的 SOP。

场景二:个人效率系统

你用 AutoClaw 管理日常任务。Hermes 逐渐学会:

  • • 你喜欢什么格式的周报
  • • 你习惯在什么时间点做复盘
  • • 你对什么类型的任务优先处理
  • • 你的写作风格和偏好用词

时间越长,它越像一个”懂你的分身”。

场景三:客户服务自动化

用 AutoClaw 做客户服务,Hermes 不断学习:

  • • 客户最常问的 10 个问题及标准回答
  • • 哪些问题需要人工介入,哪些可以自动处理
  • • 客户的特殊偏好(比如某位客户喜欢简洁回复)
  • • 产品更新后的 FAQ 变化

服务越久,自动化的比例越高。

场景四:教育和培训

用 AutoClaw 做教学助手,Hermes 逐渐了解每个学生的弱点:

  • • 哪些知识点学生经常出错
  • • 什么解释方式学生更容易理解
  • • 学生的学习节奏和偏好

自动调整教学策略,实现真正的个性化教育。

场景五:商业决策支持

用 AutoClaw 辅助商业决策,Hermes 积累的是”决策经验”:

  • • 哪些维度的数据对决策最关键
  • • 历史上类似场景的最优选择
  • • 团队成员对不同方案的反馈模式

这不是替代决策,而是在每次决策时提供更精准的上下文。

为什么其他产品没有这个功能?

技术上并不难实现。核心就是:

  1. 1. 在每轮对话结束后分析信号
  2. 2. 生成结构化的经验提案
  3. 3. 存储到 workspace 文件
  4. 4. 新对话启动时加载

真正的壁垒不是技术,是产品理念。

大多数 AI 产品的假设是:AI 的能力由模型厂商决定,用户只管用。所以它们把精力放在”怎么让模型更强”上。

AutoClaw 的假设是:AI 的能力 = 模型能力 + 用户教学。模型是基础,但用户在日常使用中积累的经验和偏好,才是让 AI 真正”属于你”的关键。

Hermes 就是连接这两者的桥梁。

一些技术细节(给爱钻研的同学)

Hermes 的工作流比我上面说的还要严谨:

双 Agent 架构: 检测到信号后,主 Agent 会 spawn 一个独立的 sub-agent 来做审查。这个审查 Agent 不会修改任何文件,只会写草稿或输出”不需要保存”。这样避免了主 Agent 在”自我审查”时可能产生的偏差。

三目录草稿管理:

  • • pending/ — 待审批的提案
  • • approved/ — 已批准的提案
  • • rejected/ — 已拒绝的提案

每个提案有唯一签名(signature),用于去重。同样的经验不会重复提案。

14 天冷却期: 如果一个提案被拒绝了,14 天内不会再因同样的证据重新提案。除非有新的、更强的证据出现。

桌面端交互卡片: 在 AutoClaw 桌面端,审批是以交互卡片的形式呈现的——你可以直接看到”要修改什么”、”修改前后的差异”,一键批准或拒绝。在飞书/微信等外部渠道,则自动降级为文本审批指令。

目标文件完整性保障: 每次提案提交的不是 diff(差异),而是目标文件的完整内容。审批通过后直接覆盖写入。这意味着每条提案都是独立可审核的,不会因为多条提案的叠加而产生冲突。

我使用 Hermes 几天后的真实感受

说实话,刚开始用的时候没什么感觉——因为它太安静了。大部分时候它都是 NOTHING_TO_SAVE,你甚至不知道它在后台做了分析。

但几次之后,我开始注意到一些微妙的变化:

  • • 我纠正过一次”不要用 markdown 表格发 Discord”,它真的再也没犯过
  • • 我说了一次”通知我的时候别发全文,发摘要就行”,后来每次通知都是摘要格式
  • • 我教过它用某个工具的正确路径,下次它直接用对了,没再绕弯路

这些变化不大,但每一次都在说:我在认真听你说话,而且我记住了。

这种感觉很特别。它不像用传统软件那样”我来操作你”,更像是”我教一个助理做事,他越来越熟练”。

AI 产品千千万,能让用户体验到”成长感”的,这是第一个。

写在最后

我们正在进入一个 AI 产品的分水岭。

第一代产品拼的是模型能力——谁的模型更聪明、回答更准确。这个阶段,各家差距不大,因为底层模型就那么几个。

第二代产品拼的是个性化——谁能最好地适应每个用户的独特需求、习惯和工作方式。

Hermes 进化功能,就是 AutoClaw 在第二代竞争中打出的一张王牌。

你的 AI 助手不是静态的。它会随着你的使用,变成一个越来越懂你的、独一无二的 AI。

这才是 AI 助手应该有的样子。


本文基于 AutoClaw(小龙虾)Hermes 进化功能的真实使用体验撰写。

#AutoClaw #autoclaw

Hermes Evolution 是 AutoClaw 的独有功能,无需额外安装,workspace 创建即自带。