AI 助手会"自我进化":聊聊 AutoClaw 独有的 Hermes 进化功能,用过就回不去了
我用的 AI 助手会”自我进化”:聊聊 AutoClaw 独有的 Hermes 进化功能,用过就回不去了
一个真实场景
你跟 AI 助手说了一件事,比如”以后写代码的时候先写测试用例”,它说”好的,我记住了”。然后下一次对话,它又忘了。再下一次,还是忘了。
你以为它”记住了”,其实它只是在当前对话里配合你。会话一结束,一切归零。
这不怪它——这是所有 AI 产品的默认行为。每次对话都是独立的,上下文不会跨会话保留。你说的那些偏好、习惯、工作方式,全是一次性的。
但是 AutoClaw(小龙虾)有一个功能叫 Hermes 自我进化,能让你说过的东西,真的”永久记住”。
Hermes 是什么?一句话解释
Hermes 是 AutoClaw 内置的”经验沉淀系统”。
每次你和 AutoClaw 完成一个比较复杂的任务后(比如写了一篇长文、跑通了一个项目、排了一个 bug),Hermes 会在后台自动分析这次对话:
-
• 你有没有纠正它什么? -
• 你有没有教它一个新方法? -
• 它在执行过程中踩了什么坑? -
• 有没有发现可以复用的模式?
如果发现值得记住的东西,它会自动生成一条”进化提案”——不是直接修改,而是先写一个草稿,等你审批。你觉得 OK,点一下批准,这条经验就永久写入了它的”记忆文件”。以后每次新对话启动,它都会自动加载这些经验。
你纠正它一次,它一辈子都记得。
和其他 AI 产品的本质区别
市面上主流的 AI 产品,提升助手能力的方式无非两种:
方式一:手动写 System Prompt。 你自己在配置里写”你是一个专业的代码助手,回复要简洁,先写测试再写实现”。缺点是:你得自己写,而且只能写一些通用规则,没法覆盖具体的经验教训。
方式二:手动维护 Memory 文件。 有些产品允许你编辑一个记忆文件,每次对话时注入。缺点还是:你得自己总结、自己写。
Hermes 做了什么不同的事?它让你不用手动做这些。
你正常使用 AutoClaw,该纠正纠正,该指导指导。Hermes 在后台默默观察,发现有价值的东西就自动生成提案。你只需要做一件事:批准或拒绝。
整个过程:
你正常使用 AutoClaw │ ▼Hermes 在后台自动分析对话 │ ▼发现值得记住的经验? │ │ 是 否 │ │ ▼ ▼生成进化提案 → 不打扰你(草稿状态) │ ▼你审阅后:批准 / 拒绝 / 修改 │ ▼批准 → 永久写入记忆文件拒绝 → 记录到"已拒绝"归档修改 → 更新草稿,再次提交
零额外操作成本。你不需要开一个”设置记忆”的页面,不需要写 YAML,不需要总结”教训总结”。你只是正常使用,它自己学习。
触发条件:不是每句话都会进化
Hermes 不会对每一句闲聊都触发进化检查。它的设计非常克制:
只在满足以下条件时才启动分析:
-
• 当前轮次已经形成了完整结果(不是聊到一半) -
• 至少出现一个”强信号”或两个”中信号”
强信号(一条就够触发):
-
• 你明确纠正了它 -
• 你说”以后都这样做/不要这样” -
• 你教了它一个可复用的新 workflow -
• 它经过明显失败/重试后才成功
中信号(需要两条才触发):
-
• 同类任务中出现了清晰的步骤模式 -
• 某个工具的环境坑点值得长期记住 -
• 同一偏好在近期被重复提到
以下情况直接跳过:
-
• 纯闲聊 -
• 简单问答 -
• 工具调用很少且没有纠正 -
• 一次性需求 -
• 已经有同样的提案待处理或最近被拒绝
这意味着什么?它不会像某些产品那样,动不动就弹一个”是否保存到记忆?”的提示烦你。 只在真正有价值的时候才出来,保持安静。
进化的内容流向:写到哪里?
Hermes 把学到的东西写到四个不同的文件里,每个文件有明确的分工:
|
|
|
|
|---|---|---|
| AGENTS.md |
|
|
| TOOLS.md |
|
|
| MEMORY.md |
|
|
| SKILL.md |
|
|
这个设计很巧妙。它不是把所有东西都丢进一个”记忆”文件里,而是按类型分类存储。行为规则和行为规则放一起,工具经验和工具经验放一起,用户偏好和用户偏好放一起。
这有什么好处?不同类型的知识有不同的生命周期和更新频率。 你的工具路径可能每周都在变,但你的行为偏好可能几年都不变。分开放,管理起来更清晰。
一个真实的进化提案长什么样?
这是 Hermes 实际工作时的一个流程(我简化了一下):
场景: 我让 AutoClaw 写一篇公众号文章,然后用 baoyu-skills 发到草稿箱。中间经历了多次路径探索和工具调用失败。
Hermes 分析过程:
-
1. 检测到 39 次 tool call(≥8,满足”struggle”信号) -
2. 发现 baoyu-post-to-wechat 的路径不在常规位置,值得记住 -
3. 发现 API 方式因 IP 白名单失败,降级到浏览器方式,值得记录 -
4. 但没有用户明确纠正,且这些是单次工具使用经验 -
5. 最终判断:NOTHING_TO_SAVE(不生成提案)
是的,Hermes 也会判断”不需要记住”。不是所有经验都值得沉淀。它有一个质量标准:必须同时满足”具体、可执行、长期有效、非一次性、对未来有帮助”才会生成提案。
这就是它的”审慎”——宁可漏掉一条经验,也不应该用一堆无用的记忆文件污染上下文。
进化强度可调:从”佛系”到”激进”
Hermes 有一个”进化强度”参数,可以按 workspace 独立设置:
-
• 100%(激进):强信号或两个中信号都触发。适合刚开始使用、希望快速积累经验的阶段。 -
• 50%(审慎):仅强信号触发,中信号全部跳过。适合已经稳定运行、不希望被打扰的场景。 -
• 0%(关闭):完全不做进化检查。适合不需要自我进化的场景。
我目前用的是 100%,因为还在磨合阶段,希望 AutoClaw 尽快适应我的工作习惯。等积累了足够多的经验规则后,可能会调到 50%。
“Evolution Echo”:学以致用的闭环
Hermes 还有一个很细节的功能叫 Evolution Echo(进化回声)。
当你批准了一条进化规则后,AutoClaw 在后续对话中应用这条规则时,会简短提一句:
“(基于之前的经验:写代码前先写测试用例)”
就这么一句话。不会重复说,只在规则真正影响了当前操作时才提。
这个设计的意义是什么?让你知道你的”教导”真的起作用了。 很多时候我们教 AI 一个习惯,但不知道它到底有没有记住。Evolution Echo 就是给你一个确认:”你之前说的那条,我这次用上了。”
这个功能解决了什么根本问题?
让我退一步,说一个更本质的问题。
所有 AI 助手都有一个致命缺陷:它们不会随着使用时间变强。
你用 ChatGPT 一年和用一天,体验是一样的。你用 Claude 一年和用一天,也是一样的。它们的知识是静态的——不管你跟它们聊了多少次、教了多少东西,下一次打开还是一个全新的、对你说的话一无所知的 AI。
这就像你雇了一个助理,每天教他一些东西,但第二天他全忘了。你能想象吗?
Hermes 解决的正是这个问题:让 AI 助手”越用越懂你”。
-
• 你纠正过一次的错误,它不会再犯 -
• 你教过的工作流程,它下次自动按这个流程走 -
• 你踩过的坑,它帮你记住,下次避开 -
• 你的偏好和习惯,它主动适应
这不是什么花哨的功能。这是 AI 助手从”工具”到”伙伴”的关键一步。
业务延伸:这个功能有多大想象空间?
场景一:团队知识管理
一个团队共享一个 AutoClaw workspace。新入职的同事不需要从零开始培训——因为 AutoClaw 已经通过 Hermes 积累了所有团队的”隐性知识”:
-
• 代码规范(从 code review 纠正中学习) -
• 部署流程(从每次发布踩坑中积累) -
• 客户偏好(从每次沟通反馈中记住)
新同事直接开始工作,AutoClaw 自动帮他遵守所有”约定俗成”的规则。相当于一个活的、持续更新的 SOP。
场景二:个人效率系统
你用 AutoClaw 管理日常任务。Hermes 逐渐学会:
-
• 你喜欢什么格式的周报 -
• 你习惯在什么时间点做复盘 -
• 你对什么类型的任务优先处理 -
• 你的写作风格和偏好用词
时间越长,它越像一个”懂你的分身”。
场景三:客户服务自动化
用 AutoClaw 做客户服务,Hermes 不断学习:
-
• 客户最常问的 10 个问题及标准回答 -
• 哪些问题需要人工介入,哪些可以自动处理 -
• 客户的特殊偏好(比如某位客户喜欢简洁回复) -
• 产品更新后的 FAQ 变化
服务越久,自动化的比例越高。
场景四:教育和培训
用 AutoClaw 做教学助手,Hermes 逐渐了解每个学生的弱点:
-
• 哪些知识点学生经常出错 -
• 什么解释方式学生更容易理解 -
• 学生的学习节奏和偏好
自动调整教学策略,实现真正的个性化教育。
场景五:商业决策支持
用 AutoClaw 辅助商业决策,Hermes 积累的是”决策经验”:
-
• 哪些维度的数据对决策最关键 -
• 历史上类似场景的最优选择 -
• 团队成员对不同方案的反馈模式
这不是替代决策,而是在每次决策时提供更精准的上下文。
为什么其他产品没有这个功能?
技术上并不难实现。核心就是:
-
1. 在每轮对话结束后分析信号 -
2. 生成结构化的经验提案 -
3. 存储到 workspace 文件 -
4. 新对话启动时加载
真正的壁垒不是技术,是产品理念。
大多数 AI 产品的假设是:AI 的能力由模型厂商决定,用户只管用。所以它们把精力放在”怎么让模型更强”上。
AutoClaw 的假设是:AI 的能力 = 模型能力 + 用户教学。模型是基础,但用户在日常使用中积累的经验和偏好,才是让 AI 真正”属于你”的关键。
Hermes 就是连接这两者的桥梁。
一些技术细节(给爱钻研的同学)
Hermes 的工作流比我上面说的还要严谨:
双 Agent 架构: 检测到信号后,主 Agent 会 spawn 一个独立的 sub-agent 来做审查。这个审查 Agent 不会修改任何文件,只会写草稿或输出”不需要保存”。这样避免了主 Agent 在”自我审查”时可能产生的偏差。
三目录草稿管理:
-
• pending/— 待审批的提案 -
• approved/— 已批准的提案 -
• rejected/— 已拒绝的提案
每个提案有唯一签名(signature),用于去重。同样的经验不会重复提案。
14 天冷却期: 如果一个提案被拒绝了,14 天内不会再因同样的证据重新提案。除非有新的、更强的证据出现。
桌面端交互卡片: 在 AutoClaw 桌面端,审批是以交互卡片的形式呈现的——你可以直接看到”要修改什么”、”修改前后的差异”,一键批准或拒绝。在飞书/微信等外部渠道,则自动降级为文本审批指令。
目标文件完整性保障: 每次提案提交的不是 diff(差异),而是目标文件的完整内容。审批通过后直接覆盖写入。这意味着每条提案都是独立可审核的,不会因为多条提案的叠加而产生冲突。
我使用 Hermes 几天后的真实感受
说实话,刚开始用的时候没什么感觉——因为它太安静了。大部分时候它都是 NOTHING_TO_SAVE,你甚至不知道它在后台做了分析。
但几次之后,我开始注意到一些微妙的变化:
-
• 我纠正过一次”不要用 markdown 表格发 Discord”,它真的再也没犯过 -
• 我说了一次”通知我的时候别发全文,发摘要就行”,后来每次通知都是摘要格式 -
• 我教过它用某个工具的正确路径,下次它直接用对了,没再绕弯路
这些变化不大,但每一次都在说:我在认真听你说话,而且我记住了。
这种感觉很特别。它不像用传统软件那样”我来操作你”,更像是”我教一个助理做事,他越来越熟练”。
AI 产品千千万,能让用户体验到”成长感”的,这是第一个。
写在最后
我们正在进入一个 AI 产品的分水岭。
第一代产品拼的是模型能力——谁的模型更聪明、回答更准确。这个阶段,各家差距不大,因为底层模型就那么几个。
第二代产品拼的是个性化——谁能最好地适应每个用户的独特需求、习惯和工作方式。
Hermes 进化功能,就是 AutoClaw 在第二代竞争中打出的一张王牌。
你的 AI 助手不是静态的。它会随着你的使用,变成一个越来越懂你的、独一无二的 AI。
这才是 AI 助手应该有的样子。
本文基于 AutoClaw(小龙虾)Hermes 进化功能的真实使用体验撰写。
Hermes Evolution 是 AutoClaw 的独有功能,无需额外安装,workspace 创建即自带。
夜雨聆风