最近这几天,OpenClaw 连续更新,重点是记忆系统增强。如果你是前几个月那波"养虾"热潮里入坑的老用户,对 OpenClaw 的记忆能力大概率不陌生,龙虾可以说是因记忆爆火,也因记忆让人挠头:你得明确告诉它"把这个记住",它才会往 MEMORY.md 里写;你踩过的坑,如果没有被显式整理成规则,下次换个会话它还是可能忘;很多时候,记忆更像一种"你得主动维护的辅助能力",而不是一个会自然工作起来的系统。但 OpenClaw 最近这轮更新之后,这件事开始不一样了。今天它的原生记忆链路,已经不再只是 MEMORY.md + memory_search 这么简单,而是逐步演化成了一套更完整的形态:memory-core + qmd + active-memory + dreaming。与此同时,还有另一个最近很火的Git项目,就是 MemOS。很多人第一次认真听说 MemOS,不是因为自己主动去研究 AI memory paper,而是在 Hermes Agent 这波讨论被带热之后,开始意识到一件事:如果 Agent 想从"会聊天、会调用工具"走到"真的能长期协作",外挂一套更强的记忆系统,可能不是锦上添花,而是刚需。所以这篇文章,我不想简单粗暴给一个"谁强谁弱"的结论,而是想根据我最近的两套系统的试用体验,做一个全面的对比,重点回答四个问题:
OpenClaw 原生记忆系统,最近到底更新成什么样了? MemOS 为什么会在这波 Agent 讨论里火起来? 如果把两套系统放在同一个技术框架下,它们在 collection、recall、dreaming、embedding、治理方式上到底差在哪? 更新后的 OpenClaw 原生记忆系统和 MemOS 这样的外挂第二大脑分别适合哪些场景和用户?
如果你是比较早开始用 OpenClaw 的用户,应该都经历过那个阶段:
系统能记,但更像"文件级记忆" 你得主动告诉它什么值得记 它能搜 MEMORY.md、daily memory、session transcript,但 recall 这件事并不总是来得恰到好处 真正长期协作时,大家最常遇到的不是"完全没有记忆",而是"有一点,但不够丝滑"
这也是为什么过去不少重度用户会自己维护一堆本地锚点文件,或者在工作流里手工补记忆规则。早期很多人理解的 OpenClaw 记忆,更像三层东西的拼接:
MEMORY.md 这种长期偏好和稳定事实文件 memory/YYYY-MM-DD.md 这种 daily note memory_search 这种需要时再去捞的 recall 工具
龙虾的这套早期记忆系统奠定了他能"养"而越用越熟这个概念,但这套记忆系统远称不上"完美"。我之前也写过一篇通过proactive agent + self- improving + ontology如何去提示记忆系统的文章:那些“一键部署 OpenClaw”的爆款教程不会教你的进阶指南
这次真正值得再写一篇文章的变化,在于 OpenClaw 开始把记忆往原生 runtime 里面合并。按照官方文档和我让codex总结的工作手册,这套新形态至少可以概括成四个核心部件:
memory-core:正式的 memory runtime qmd:当前正式的索引与检索 backend active-memory:在合格的 direct 持久会话里,主回复前先跑一轮前置 recall dreaming:在后台做 light、REM、deep 三阶段 consolidation,最终只让 deep phase 决定哪些内容真正进入 MEMORY.md
翻译成人话其实很简单,现在的OpenClaw 记忆机制分为三个部分:
先收进来,别什么都直接写长期记忆 再找出来,而且最好在回复之前就想起来 最后慢慢沉下去,只把真正高频、稳定、经常被召回的东西留下
这套机制想解决的不是单纯的记不住,而是把该记住的也分一下优先级。
那 MemOS 又是怎么冒出来的
如果 OpenClaw 原生这条线,是从"本地 control plane 补齐记忆能力"慢慢迭代出来的,那 MemOS 的出发点几乎是反过来的。MemOS 从一开始就不是想做一个附带的小插件,而是想把 memory 单独抬成一层基础设施。从它公开仓库、插件介绍和本地插件文档看,MemOS 的定位非常鲜明:
它叫 Memory Operating System 它强调统一的 memory API 它强调 add / retrieve / edit / delete 它强调 graph 化、可管理、可反馈、可修正 它强调 multi-agent collaboration 它强调本地插件、cloud plugin 和 Memory Viewer
换句话说,MemOS 要解决的不是Agent自带的记忆机制如何工作,而是"把记忆本身变成一个独立系统"。MemOS 这套系统的价值,就在于它直接越过了Agent框架自身的记忆机制,把Agent记忆这一个解决方案产品化了。你会看到它强调:
本地持久化存储 FTS5 + vector 的 hybrid search Memory Viewer feedback / delete / correction 任务总结并沉淀为skill的自进化机制 多 agent 协作与隔离 支持团队共享的记忆系统
所以它经常被用户理解成 OpenClaw 的"外挂第二大脑",这个说法其实挺形象。MemOS不只能接给龙虾,也能把你"养成"的一套成熟记忆系统接给任何其他Agent,也能把这套记忆系统分享给其他团队成员,让他们的Agent也能和你的工作风格,技术偏好瞬间拉通对齐。
简而言之,OpenClaw 原生记忆系统是一套长在 OpenClaw runtime 里的记忆系统,由 memory-core 负责运行时,qmd 负责检索,active-memory 负责前置 recall,dreaming 负责后台 consolidation。MemOS 是一套外挂式、相对独立的记忆底座,可以作为 OpenClaw 的第二大脑,为它提供更完整的 memory storage、hybrid retrieval、memory management、viewer 和多 agent 协作能力。
两套系统谁更好?
我让ChatGPT推荐了一套评估Agent记忆系统表现的框架,他给了我以下五个维度:
Collection / Ingestion:信息是怎么进入记忆系统的 Recall / Retrieval:需要的时候,系统是怎么把它找回来的 Consolidation / Dreaming:短期记忆怎么沉成长期记忆,噪音怎么被挡住 Embedding / Indexing:底层检索是怎么建起来的,召回质量和范围受什么影响 Governance / Boundary:记忆能不能被查看、修正、删除、共享,跨 agent 的边界清不清楚
下面就按这五项,一项一项对比。
第一项:Collection,信息怎么进入记忆系统
OpenClaw 原生现在的 collection,更像一个多入口体系。它的记忆素材主要来自几类地方:
MEMORY.md memory/YYYY-MM-DD.md 会话中的 recall traces 在一定条件下可被 dreaming ingest 的 session transcripts 前置 recall 命中的相关内容
也就是说,原生这套链路不是把每一段对话都粗暴写进长期记忆,而是先允许信息存在于 daily memory、短期 recall store、dreaming machine state 这些层里,再慢慢判断哪些值得升格。这个思路的优点,是它开始有"短期层"和"长期层"的区分。它的缺点也很明显:如果你期待的是一个一眼就能看懂、手动就能管理的 collection 面板,那原生这套系统目前还是偏 runtime 内部机制,不是独立产品。MemOS 的 collection 思路明显更"系统产品化",它强调的是:对话自动捕获本地持久化存储hybrid search 前的结构化入库可选的 task summarization可进一步演化成 skill memory还支持从 OpenClaw 原生 memory 做导入和迁移再加上一个可视化的仪表板,对用户来说看起来更直观,你会觉得"我是在把信息喂给一个第二大脑",不再需要你盲猜哪些记住了,哪些没记住。在 collection 这一层的小结:OpenClaw 原生更像分层采集 + 后续筛选MemOS 更像集中入库 + 独立管理前者的优势是更贴 runtime,后者的优势是更像一个完整产品。
第二项:Recall,需要的时候,它是怎么想起来的
原生这套 recall 现在有两层:
第一层是你熟悉的 memory_search,它本质上还是一个检索工具,可以对 memory files 做 semantic search,也可以结合关键词、向量、hybrid、MMR、temporal decay 等机制来找结果。 第二层才是这次最关键的变化,也就是 active-memory。
active-memory 的作用,不是替代 memory search,而是在合格的 direct persistent session 里,在主回复之前先做一次前置 recall。这其实不是一个微小的调整,因为过去很多 Agent 的记忆问题,不是完全搜不到,而是搜的时机太晚。它先按当前上下文回你一段,回完了你才发现它本来应该记得这件事。而 active-memory 就是在试图解决这个"记忆来晚了"的问题。当然,它也有明确边界:只作用于 eligible 的 interactive persistent chat sessions当前常见配置下以 direct 为主cron、heartbeat、subagent、headless one-shot 默认不吃这一层这意味着 OpenClaw 原生 recall 的重点,是让对话态记忆更自然,而不是让所有执行链路一股脑都带着 recall 跑,防止token爆炸。MemOS 这边的 recall,更像经典的"外挂 memory layer"思路,它强调的是:执行前上下文召回每轮会话后保存聊天内容本地 hybrid searchviewer 可回看多 agent 记忆共享这类系统的优势,在于 recall 路径更明确,用户也更容易理解成"先去第二大脑搜,再回来干活"。尤其是如果你已经接受"Agent 前面挂一个 memory service"这个产品形态,MemOS 会很好理解。在 recall 这一层的小结:OpenClaw 原生走的是"前置 recall + runtime 内联"这条路MemOS 更像"外挂 memory service 先召回,再把结果喂给 agent"前者更自然,后者更直观。
第三项:Consolidation,短期信息怎么沉成长期记忆
OpenClaw 现在在这件事上的答案,就是 dreaming。官方文档里,dreaming 是 memory-core 的后台 consolidation system,包含三个 phase:
light REM deep
它们的职责不是平均分工,而是一个很明确的流水线:
light 先整理和暂存短期材料 REM 做主题反思和 pattern 提炼 deep 才真正决定哪些 durable candidates 可以写进 MEMORY.md
而且 deep phase 不是拍脑袋写,它会参考几个信号:
召回频率 检索相关性 查询多样性 时间新近性 巩固强度 概念丰富度
你可以把它理解成,OpenClaw 原生开始认真处理"长期记忆晋升机制"了,目标则是解决两类问题:一次性废话升格成长期事实旧信息没清掉,新信息又不断叠上去Dreaming 至少在工程上承认了这件事,并且试图把 promotion 做成有门槛的,而不是"只要提过一次就往 MEMORY.md 里塞"。MemOS 的 consolidation 逻辑,和 OpenClaw 原生不是同一种风格,它更强调:任务总结skill自进化记忆纠正与反馈记忆更新与删除这意味着它不只是想做"长期记忆晋升",而是想把"记忆更新和修正"也一起纳进系统。如果你把 OpenClaw dreaming 理解成"后台筛选长期记忆",那 MemOS 更像"后台整理 + 显式管理 + 后续修正"混合在一起。它的优势,是治理动作更丰富。它的代价,是系统也会显得更重,因为你实际上是在维护一套独立 memory product,而不是只用 runtime 内建的一条 consolidation 流水线。在 consolidation 这一层的小结:OpenClaw 原生强调分阶段筛选,目标是高信号 promotionMemOS 更强调总结、更新、修正、演化,目标是把 memory 当成持续运营对象这两条路没有绝对高下,但哲学完全不同。
第四项:Embedding 和 Indexing,底层检索能力怎么搭起来
OpenClaw 原生这一侧,目前关键角色是 qmd 和 memory_search。从官方文档看,memory_search 支持:
vector search BM25 keyword search hybrid merge MMR temporal decay 本地或远程 embedding provider 可选 session transcript indexing
而 qmd 的价值,在于它把检索后端从"只是一个简单文件搜索器",往"本地优先的搜索 sidecar"推进了一步。这套东西的优点,是它和 OpenClaw 本身的 memory files、session transcripts、workspace 都是同一体系。缺点是,如果你不是很熟悉 OpenClaw 的 memory backend 逻辑,理解成本不低。它比较像"一个工程上越来越完整的系统部件",不太像"拿来即懂的独立产品"。MemOS 在这一层的对外表达更直白。它会明确告诉你:本地 SQLite 持久化FTS5 + vector hybrid searchviewer 可观察支持更系统化的 memory managementcloud / local 两套插件路径也就是说,MemOS 的 embedding / indexing 优势不是它概念上更先进,而是它把"记忆检索底层能力"包装得更像一个完整交付物。尤其是对于那些不想深挖 OpenClaw 内部 memory runtime,只想要一个"好用、好看、能搜、能看、能管"的用户来说,这一点很有吸引力。在 embedding / indexing 这一层小结:OpenClaw 原生更像 runtime 内建的 memory retrieval stackMemOS 更像对外交付更完整的 memory infrastructure product一个偏原生工程,一个偏独立系统。
第五项:治理能力,记忆能不能被管住
OpenClaw 原生记忆目前的治理能力,重点体现在边界清晰,而不是操作花哨。比如这套系统已经开始明确区分:
什么是长期 memory file 什么是 short-term dreaming state 什么会进 DREAMS.md 什么最后才会进 MEMORY.md active-memory 作用于哪些会话 哪些链路默认不作用
再加上你这台机器当前工作手册里明确写到:
durable facts 可以自动写入 MEMORY.md 但不能绕过审批直接修改规则层文件 SOUL.md / AGENTS.md / TOOLS.md 这类边界文件仍然有更高门槛
这说明 OpenClaw 原生治理的重点,不是给你一个巨完整的可视化后台,而是先把"哪些东西能自动沉、哪些东西不能乱动"这件事做清楚。MemOS 在治理这一层的优势更显性。因为它从设计上就把这些能力做成了用户可感知的功能:
Memory Viewer feedback / correction delete multi-agent collaboration memory isolation / sharing 导入、迁移、去重
这套东西对重度用户非常有吸引力。因为只要你养 Agent 养久了,最后最头疼的往往不是"它记不住",而是"它记错了我怎么改,它记多了我怎么看,它和别的 agent 混了我怎么拆"。MemOS 的价值,很大一部分就在于它把这些问题都正面抬到了台面上。在治理这一层的小结:
OpenClaw 原生更强调边界治理和运行时约束 MemOS 更强调显式管理和可视化治理 如果你是工程视角,可能会更喜欢前者。 如果你是运营视角,可能会更喜欢后者。
把五项放在一起看,两套系统的本质差异到底是什么
写到这里,其实已经能看出两套系统不是"同一条路上的不同版本",而是两种不同的路线。OpenClaw 原生这套 Active Memory + Dreaming,本质上在做的是:让记忆成为 agent runtime 的一部分。所以它最重视的,是:
recall 时机能不能更自然 promotion 能不能更克制 和记忆相关的 daily note、transcript、search、dreaming 能不能逐渐讲同一种语言 记忆边界能不能和会话边界、agent 边界一起被 runtime 管住
MemOS 这条路,本质上在做的是:把 memory 本身单独做成一套可管理、可观察、可演化的系统。所以它最重视的,是:
memory entry 能不能被集中管理 recall 前后能不能有明确的独立链路 错误记忆能不能改 多 agent 记忆能不能共享或隔离 用户能不能直观看到和操作这套第二大脑
那它们分别适合谁
如果你今天已经在用 OpenClaw,最现实的问题不是"哪套理论更先进",而是"哪套更适合我现在的工作流"。
更适合 OpenClaw 原生 Active Memory + Dreaming 的人
你大概率属于下面这类:
已经深度使用 OpenClaw 本体 更在意对话里的自然 recall,而不是单独维护一套 memory product 希望记忆和 workspace、session、agent routing 一起原生演进 不想长期背一套外挂 memory system 的维护成本 愿意接受 dreaming 还在持续进化,但看好原生路线
这类用户押注的是:未来 OpenClaw 自己会把记忆越做越像系统默认能力,而不是永远靠外挂补。
更适合 MemOS 的人
你大概率属于下面这类:
已经明确感受到"记忆治理"本身就是一个独立问题 很在意 Viewer、删除、反馈、修正、共享这些显式能力 多 agent 协作需求很重 希望 memory 本身可以被当成独立资产管理 不介意系统更重一点,但希望管理能力更强
这类用户押注的是:记忆迟早会成为独立基础设施,而不是 runtime 的附属物。
最后回到标题,MemOS 和 OpenClaw 原生记忆怎么选
如果一句话回答,我的看法是:Openclaw的本轮更新的记忆系统值得一试。为什么这么说?
我需要的是"高质量长期沉淀",不是单纯把聊天记录外挂存起来。dreaming 天生就在干这个。 我特别在意可解释性。DREAMS.md、MEMORY.md、daily notes 这种可见链路,比外部 recall/add 插件更容易排障。 我之前就痛点很多是"记忆丢失 / 会话切换后上下文断裂 / 写没写进去说不清"。原生记忆链路更容易厘清问题到底出在哪。 我不是在做一个统一企业记忆平台,而是在做我自己的 OpenClaw 数字分身。这个场景里,原生记忆通常比外挂中台更顺手。
但如果你问我,MemOS 还有没有价值,答案也很明确:当然有。尤其是当你对 memory 的要求,已经从"能记住一些偏好"升级到"我要管理这套第二大脑",MemOS 依然是一个更完整、更显性的答案。所以更准确的结论应该是:
如果你想押注 OpenClaw 自己的演化方向,Active Memory + Dreaming 已经到了值得切进去试跑的阶段 如果你当前最头疼的是记忆治理、可视化、修正、共享这些问题,MemOS 仍然是更成熟的外挂方案
这不是谁替代谁的问题,更像是两个阶段、两种偏好的选择。
写在最后
我觉得这次对比最有意思的地方,其实不是"又多了一个 memory plugin",而是它再次提醒我们:今天很多 AI 应用落地的瓶颈,已经不只是模型本身够不够聪明,而是模型外面那一层 harness engineering 到底有没有跟上。记忆只是其中一块。除此之外,还有:
工具调用 session orchestration 长期上下文保持 agent 边界治理 失败恢复和运行时调度
模型能力当然还会继续进步,但就算某一个阶段模型更新速度放缓,harness engineering 也还远没有到头。只要这些外层能力还在继续长,AI 应用的落地场景就还会继续扩。MemOS 代表的是一条思路:把记忆单独做强。可以确定的是,下一阶段真正拉开体验差距的,未必只是模型本身,而是继续做大做强的Harness层。
夜雨聆风