OpenClaw记忆引擎新篇章:Honcho深度解析OpenClaw 记忆引擎新篇章:Honcho 深度解析当 AI Agent 的记忆还停留在"向量检索 + Markdown 文件"的阶段时,一个叫 Honcho 的项目正在重新定义 Agent 记忆的本质——记忆不是存储,而是推理。几乎所有做过 Agent 记忆的开发者都经历过这个循环:• 用户反馈遗忘、矛盾 → 换更好的 chunking/embedding问题的根源不是工程能力,而是你没有从数据中提取全部潜在信息。传统 RAG 检索的是"被明确说出的内容",但真正重要的往往是从未被直接表达过的隐含洞察。Honcho 的解法:用形式逻辑推理穷尽地提取所有潜在信息,让记忆系统不只是"记住了什么",而是"理解了什么"。Honcho 是一个开源记忆库 + 托管服务,为 Agent 提供有状态的跨会话记忆。核心理念:通过持续推理来构建和维护关于每个实体的动态表征(Representation)。• 跨会话记忆——每次对话后自动持久化,上下文在 session 重置、压缩、频道切换后依然存活• 用户建模——自动维护用户画像(偏好、事实、沟通风格)和 Agent 画像• 语义搜索——跨会话搜索历史观察,而非仅当前 session• 多 Agent 感知——父 Agent 自动追踪子 Agent,父子 session 建立观察者关系Workspace(工作空间):顶层容器,提供应用/环境间的完全隔离。认证和配置都作用于 workspace 级别,天然支持多租户。Peer(对等体):Honcho 最核心的概念。代表 workspace 中的任何实体——用户、Agent、NPC,甚至抽象概念。人和 Agent 被统一建模为 Peer,没有"用户 vs 助手"的二元限制。每个 Peer 都有一个跨所有 session 的统一表征。Session(会话):Peer 之间的交互线程,提供时间边界。一个 session 可以有多个 Peer。session 间共享同一个 Peer 的表征,但可配置不同的观察视角。Message(消息):交互的基本单位。除对话外,邮件、文档、用户行为、系统通知都可作为 Message 摄入。每条消息归属于特定 Peer,按时间排序,并触发后台推理。这是 Honcho 与所有传统记忆方案的本质区别。传统 RAG 检索的是语义相似的原文。其他方案预定义什么是重要的。Honcho 不做预判——它对所有数据进行推理,由开发者决定什么相关。推理通过形式逻辑实现。LLM 天然擅长这个——预训练数据中大量存在形式逻辑推理模式,而且 LLM 不会认知疲劳,可跨数千个结论保持一致推理。Honcho 的推理引擎(基于定制模型 Neuromancer XR)执行四种推理:1. 演绎推理(Deductive):从明确前提得出确定结论
前提: "我在攒钱买房"
前提: "订阅费太贵了"
结论: 用户对经常性支出敏感,正在为大额消费控制预算
2. 归纳推理(Inductive):跨多条消息识别模式
多次提到工作截止日期 + 很少提爱好
→ 用户时间紧张,以事业为重
3. 溯因推理(Abductive):为观察到的行为推断最简解释4. 一致性推理(Consolidation):识别冗余或矛盾信息消息写入 PostgreSQL 后立即返回,推理任务进入后台队列。Honcho 攒够约 1,000 token 的消息后批量处理,既降低成本又保证每次推理有足够上下文。表征(Representation):持续演化的理解Peer 的表征是 Honcho 对该实体全部推理结果的集合,包含三类产物:结论(Conclusions):通过形式逻辑推导的洞察。包括演绎确定的结论、跨消息归纳的模式、溯因推断的最简解释。摘要(Summaries):压缩会话本质。短摘要每 20 条消息生成一次,长摘要每 60 条消息一次。Peer 卡片(Peer Cards):缓存基本信息(姓名、职业、兴趣),确保模型永远不会失去锚定。每次新消息都会触发表征更新——结论被修正、摘要被重写、卡片被刷新。这不是存储,是持续学习。传统系统中所有 Agent 都是全知的——它们共享所有信息。但现实中,理解是相对于观察的。• observe_me(默认开启):Honcho 基于该 Peer 在所有 session 中的消息构建表征• observe_others(session 级配置):Peer 只基于自己实际观察到的消息来构建对他人的表征举个例子:Alice 和 Bob 在 Session 1、2 中互动,Alice 和 Charlie 在 Session 3 中互动。Bob 对 Alice 的表征来自 Session 1、2,Charlie 只来自 Session 3。Bob 可以引用共同历史和内部梗,Charlie 完全不知道。没有视角分割,所有 Agent 都是全知的——模拟就会崩塌,信任就会瓦解。Honcho 以 OpenClaw 插件形式工作(@honcho-ai/openclaw-honcho),安装后自动注册工具:
| 工具 | 功能 |
honcho_context | 跨 session 的完整用户表征 |
honcho_search_conclusions | 对已存储结论做语义搜索 |
honcho_search_messages | 跨 session 搜索消息 |
honcho_session | 当前 session 历史和摘要 |
| 工具 | 功能 |
honcho_ask | 关于用户的查询。depth='quick' 查事实,'thorough' 做综合分析 |
工具在 before_prompt_build 阶段自动注入上下文。
openclaw plugins install @honcho-ai/openclaw-honcho
openclaw honcho setup # 配置 API Key + 可选迁移已有记忆文件
openclaw gateway --force # 重启生效
迁移已有记忆文件是非破坏性的——文件上传到 Honcho,原始文件保留。• 托管 API:api.honcho.dev,按推理层级计费• 自建:本地运行,无外部依赖,无 API Key推理层级从 Minimal($0.001,单次语义搜索)到 Max($0.50,研究级全历史穷尽搜索):
| 层级 | 价格 | 能力 |
| Minimal | $0.001 | 单次语义搜索 |
| Low | $0.01 | 结论 + 上下文(默认) |
| Medium | $0.05 | 多次搜索 + 定向综合 |
| High | $0.10 | 多轮分析 + 时间模式 |
| Max | $0.50 | 穷尽全历史 + 定量方法 |
| 维度 | 内置 (SQLite) | QMD | Honcho |
| 存储 | 工作区 Markdown | 本地 sidecar | 专用服务 |
| 跨会话 | 通过记忆文件 | 通过记忆文件 | 内建自动 |
| 用户建模 | 手动写 MEMORY.md | 手动 | 自动画像 |
| 搜索 | 向量 + 关键词 | 带 reranking | 语义搜索观察结论 |
| 多 Agent | 不追踪 | 不追踪 | 父子感知 |
| 推理 | 无 | 无 | 形式逻辑推理 |
三者可以共存。Honcho 不替代内置记忆——它补充跨会话推理和用户建模的能力层。Honcho 代表了 Agent 记忆的范式转变:从"存储-检索"到"推理-理解"。它不追求记住更多事实,而是从已有事实中推导出从未被明说的洞察。对于 OpenClaw 用户来说,Honcho 是内置记忆系统的自然升级——当你需要的不只是"Agent 记得我上次说了什么",而是"Agent 理解我为什么这么说"的时候。Honcho 官网:honcho.dev | 文档:docs.honcho.dev | 插件源码:github.com/plastic-labs/openclaw-honcho