一次部署,双 Agent 协同,让 AI 从“问答工具”进化为“会成长的数字伙伴”

一、为什么需要两个“大脑”?
AI Agent 领域正经历一场静默的架构革命。过去一年,我们习惯了向 ChatGPT 或 Claude 提问、获得答案、关闭标签页——然后一切归零。这种“无状态”的交互模式,让 AI 始终困在“超好用的搜索引擎”这个定位里。
问题不在于 AI 不够聪明,而在于架构:当下的 AI 缺乏持续记忆与自我进化能力。
这正是我们同时部署 OpenClaw 与 Hermes 的初衷。它们不是简单的“二选一”,而是基于明确的分工,构建一套“双脑协同”的智能体架构:
OpenClaw:第一大脑,负责执行——连接外部世界,处理确定性任务
Hermes:第二大脑,负责记忆与进化——沉淀知识、提炼技能、越用越强
两个 Agent 各司其职,通过 MCP 协议和共享记忆层协同工作,实现了“1+1>2”的效果。
二、架构设计的核心理念:深度 vs 广度
OpenClaw 与 Hermes 的设计哲学代表了 AI Agent 两条不同的演进路径 。
OpenClaw 的核心是“广度优先”:它采用“中心辐射式架构”(Hub-and-Spoke),中央网关负责统一管理会话、路由和渠道连接。它的价值在于连接能力——原生支持 Telegram、Discord、飞书等十余种消息平台,拥有丰富的插件生态。但它有一个明显短板:记忆系统相对简单,主要依赖 Markdown 文件存储,且只自动加载最近两天的记录。更早的记忆虽然可被向量检索,但 Agent 往往不知道“该在什么时候去搜索” 。
Hermes 的核心是“深度优先”:它采用同步代理循环架构,将控制流完全收束于 Agent 自身执行引擎。它的核心差异在于内置了一套学习闭环——能从每次交互中提炼经验、沉淀为技能、持久化知识,下次对话直接复用 。在记忆架构上,Hermes 构建了四层体系 :
Prompt Memory:
MEMORY.md(约 2,200 字符)和USER.md(约 1,375 字符),作为“热记忆”始终在上下文中Session Archive:SQLite FTS5 全文索引,存储所有 CLI 和消息平台的会话摘要,按需检索
Skills:程序性记忆,Agent 完成任务后自动将成功流程写为可复用技能文件
External Provider:可选的云端/本地记忆增强层
两者的关系并非替代,而是互补。社区已有共识:Hermes 当“指挥位”,OpenClaw 当“执行位”——前者负责记住偏好、迭代技能、沉淀知识;后者负责实际执行,因为其接入平台的广度仍有优势 。
三、我们做了什么:双脑协同的关键改造
基于上述架构理念,我们进行了以下关键改造,让两个 Agent 真正“协同工作”而非“各自为政”。
改造一:记忆内化机制——让 Hermes 学习 OpenClaw 的每一次对话
OpenClaw 作为“第一大脑”,每天会产生大量会话记录(存储在 sessions/ 目录的 JSONL 文件中)。但这些记录如果只留在 OpenClaw 的归档里,Hermes 就无法知晓。
我们设计了一套记忆内化定时任务:Hermes 每 30 分钟扫描一次 OpenClaw 的会话归档目录,将最近 25 分钟内修改过的 JSONL 文件逐条阅读并理解。对于其中的关键决策、用户偏好、重要事件,调用 memory 工具写入持久记忆;对于有复用价值的操作流程,调用 create_skill 工具沉淀为技能。
这套机制的意义在于:OpenClaw 的会话文件从“原始凭证”升级为 Hermes 的“学习原料”。Hermes 会将有价值的信息内化到自己的多层记忆体系中——程序性知识沉淀为 Skills,用户偏好注入 USER.md,时序事件存入 SQLite FTS5 索引。即使 OpenClaw 的原始文件被清理,知识依然安全存储在 Hermes 内部 。
改造二:主动推送通道——关键记忆即时同步
定时任务解决了“批量内化”,但对于用户刚刚表达的偏好、刚刚做出的重要决策,30 分钟的延迟显然太慢。
我们在 OpenClaw 侧创建了 hermes-push 技能:当 OpenClaw 写入新的记忆内容时,自动调用该技能,通过 Hermes 的 API 将内容即时推送到第二大脑。Hermes 收到推送后,判断内容类型——用户偏好写入 USER.md,环境事实写入 MEMORY.md——实现秒级同步。
改造三:反向检索通道——当 OpenClaw“失忆”时
OpenClaw 的记忆机制存在天然局限:只自动加载最近两天的记录,更早的记忆需要主动检索——但 Agent 往往不知道“该在什么时候去搜索” 。
我们创建了 hermes-recall 技能作为“回忆接口”:当用户询问历史信息(如“上周三我们讨论过什么”),OpenClaw 调用该技能向 Hermes 发起检索请求。Hermes 同时搜索自己的 SQLite 会话归档和 OpenClaw 的原始会话目录,返回精准答案。
实测中,我们向 Hermes 存储了一条“用户秘密代号是金策智算 007”的记忆,然后让 OpenClaw 去问——它成功调用 hermes-recall 技能,返回了正确答案。这套“失忆 → 查询第二大脑 → 补充上下文”的链路,正是双脑架构的核心价值。
四、架构全景:两个 Agent 如何协同
┌─────────────────────────────────────────────────────────────┐│ 用户交互层 ││ OpenClaw WebChat (18789) │ Open WebUI (3000) │ 飞书 │└─────────────────────────────┬───────────────────────────────┘│▼┌─────────────────────────────────────────────────────────────┐│ OpenClaw(第一大脑 / 执行层) ││ • 接收消息,执行确定性任务(查行情、发告警、跑脚本) ││ • 写入记忆时 → 调用 hermes-push → 推送到第二大脑 ││ • “失忆”时 → 调用 hermes-recall → 向第二大脑查询 │└─────────────────────────────┬───────────────────────────────┘│ (MCP / HTTP API)▼┌─────────────────────────────────────────────────────────────┐│ Hermes(第二大脑 / 记忆与进化层) ││ • 定时内化 OpenClaw 的会话文件(每 30 分钟) ││ • 接收实时推送,写入 Prompt Memory(MEMORY.md / USER.md) ││ • 复杂任务完成后,自动沉淀为可复用技能(Skills) ││ • 响应检索请求,从 SQLite 归档 + 原始会话中召回答案 │└─────────────────────────────────────────────────────────────┘
协同的核心在于:OpenClaw 产生的会话是“原料”,Hermes 将其内化为“知识”;当 OpenClaw 需要知识时,Hermes 提供“回忆”。两个 Agent 各自发挥所长——一个负责连接的广度,一个负责学习的深度——形成完整的能力闭环 。
五、核心价值:这套架构改变了什么?
1. 从“一次性工具”到“持续进化的伙伴”
传统 AI 的困境:每次对话结束,上下文清零。而双脑架构下,OpenClaw 的每一次交互都被 Hermes 记录、提炼、内化。你今天告诉它的偏好,下周它依然记得;你今天让它学会的操作流程,下次直接复用。Agent 不再是“失忆的打工人”,而是“越用越懂你的数字伙伴”。
2. 故障隔离与架构韧性
我们刻意保持了双 Agent 的独立性,而非将它们合并为单一系统。这样做的好处是:一个 Agent 出问题,不会拖垮另一个。即使 Hermes 的记忆服务短暂不可用,OpenClaw 仍可独立执行任务;即使 OpenClaw 的原始会话被清理,Hermes 已内化的知识不会丢失。
3. 技能的自进化能力
这是 Hermes 最具差异化的能力 。当它完成一个复杂任务(如抓取 Tushare 数据、清洗、可视化),会自动触发 skill_manage 流程,将成功路径写为技能文件。下次遇到类似任务时,它不再从头摸索,而是直接调用技能。这种“执行 → 反思 → 固化 → 优化”的循环,让 Agent 的能力随时间复利增长。
4. 对量化场景的适配
回到我们最初的场景——“金策智算”量化系统。三省六部制的核心是“分权制衡”(中书出命、门下封驳、尚书奉行),而双脑架构恰好与这一理念共振:
OpenClaw 对应“尚书省”——负责执行,对接数据源、发送告警
Hermes 对应“中书省+门下省”——负责策略推理与风控审核
记忆内化机制对应“吏部”——沉淀成功的策略模式,淘汰失效的经验
六、写在最后
我们正站在 AI Agent 从“工具”进化为“伙伴”的拐点上。Hermes 与 OpenClaw 的双脑架构,是一次对“AI 如何持续记忆、持续进化”这个命题的实践回答。
它不追求“用一个超级 Agent 解决所有问题”,而是承认不同架构有不同优势——让擅长连接的负责连接,让擅长学习的负责学习——通过清晰的边界和高效的协作,实现“1+1>2”的效果。
这套架构的价值不在于技术本身,而在于它让 AI 真正具备了“成长”的可能。每一次对话都不再是孤立的事件,而是持续积累的经验;每一次纠正都不再是徒劳的解释,而是能力进化的养料。
如果你也在探索 AI Agent 的长期记忆与自进化能力,欢迎交流。代码与详细配置方案将陆续整理在后续文章中。
作者:Lawrence架构设计与实施:Lawrence & Hermes Agent&deepseek特别鸣谢:在 12小时的调试过程中,Hermes 展现了令人印象深刻的自诊断能力——它自己找到了配置文件的语法错误,自己排查了 API 认证问题,甚至在飞书接入失败时,自己检索了官方文档并给出了正确的配置建议。
夜雨聆风