乐于分享
好东西不私藏

OpenClaw失忆、烧钱的原因:99%的人都用错了Memory(附自动技能)

OpenClaw失忆、烧钱的原因:99%的人都用错了Memory(附自动技能)

90%的玩家使用OpenClaw,都面临这样的问题:

  • 龙虾还没赚钱,就先被Tokens烧到破产
  • 开了月度订阅,一样用到平台限速
  • 折腾memory半天,龙虾照样失忆
  • memory混乱,管理难度高
  • 用了QMD检索系统,像没用一样,Tokens不降

被这些情况这么几次,谁还有心情去养龙虾?

很多人第一反应是:

  • 模型不够强
  • 上下文太小
  • 工具不稳定

我花了三天时间把Openclaw与模型交互的机制做了全面拆解,终于发现了失忆,燃烧Tokens的罪魁祸首!

真正的问题,其实是 Memory 写错了。

这篇我给你一套“自动化运行”的Memory结构:不失忆、Token稳定、QMD真正省钱。


我的OpenClaw不再失忆,Tokens消耗暴降88%

先看结果:

假设你的项目对话历史累计 50,000 Token:

  • 全量历史模式:每轮消耗 50,000,10 轮就是 500,000
  • QMD 检索模式:即时窗口 5,000 + 检索召回 1,000 = 每轮 6,000,10 轮只要 60,000

(召回Top3-5条片段,而不是把过去所有对话整段塞回去)节省 88%,保守一点,我们按照节省 75%算,足足节省 4 倍。

你的对话越长,优势就越大,10 轮对话省 88%,100 轮对话省 95%+。全量模式到后面直接爆表,QMD 模式永远稳在 8-10k。(不同模型/配置会有浮动,但趋势是确定的:对话越长,QMD优势越大。)


第一部分:为什么 OpenClaw 会失忆、烧钱?

99%的人把memory用错了,所以OpenClaw失忆又烧钱!

常见误区

把所有内容堆到 MEMORY,臃肿且失忆

我最近把自己的 OpenClaw 运行机制拆解了一遍,核心结论是:

不要再把“人格、用户画像、技能目录、执行规则、日常流水”全堆在一个 MEMORY 文件里。

这样看起来像在“喂知识”,实际是在制造噪音。

第二部分:养龙虾的关键,就是养好配置文档

一、写对配置文件,模型才能不失忆

1、先纠偏:OpenClaw 不是“单记忆体”,而是分层系统

OpenClaw与模型交互机制更像一个8层操作系统,当你发出指令,OpenClaw会把以下结构发给模型:

  1. 系统规则层(System-owned):工具权限、安全边界、调用规则、回复格式等
  2. 运行时注入层(System-owned):当前任务目标、环境变量、运行状态(由系统临时注入)
  3. 会话上下文层(Thread history):当前聊天与线程历史
  4. 人格层:SOUL.md 
  5. 用户画像层:USER.md
  6. 长期记忆层:MEMORY.md(高价值、低噪音)
  7. 日常事件层:memory/YYYY-MM-DD.md
  8. 执行规则层:TOOLS.md(硬规则)
你可维护的核心文件及写入什么内容(重点)
  1. SOUL.md(人格原则)
    • 写:风格、原则、边界、做事方式
    • 不写:项目细节、临时任务、工具参数
  2. USER.md(你的画像偏好)
    • 写:你的长期目标、沟通偏好、写作规则
    • 不写:每日流水、一次性事件
  3. MEMORY.md(长期高价值记忆)
    • 写:长期有效的偏好/决策/稳定规则(高价值、低噪音)
    • 不写:技能目录、长日志、临时讨论
  4. memory/YYYY-MM-DD.md(日常流水)
    • 写:当天发生了什么、决定了什么、待办是什么
    • 不怕脏,但要结构化(DECISION/PREF/TODO标签)
  5. TOOLS.md(执行硬规则)
    • 写:执行硬规则(路径、默认profile、Skill路由触发规则等)
    • 不写:价值观、长解释
  6. AGENTS.md(流程治理与边界)
    • 治理制度(如何维护记忆、何时确认风险动作等)
    • 不写:重复的执行参数

明白了模型交互的机制,就知道,模型第一时间去对应的文件中找相关的规则,而不是去MEMORY去找,如果你所有内容对在MEMORY,模型一定是失忆的!


那么新的问题来了,6个可维护的文件,日常记忆每天记录更新,文件慢慢越来越大,一样会燃烧大量Tokens。

第三部分:如何让Tokens消耗最小化?

如何兼具节省与体验的最大平衡?

Tokens消耗分三层

  • 配置文件(当前优化的,包含记忆文件,是优化的重中之重)
  • 对话(不要刻意管理压缩,但分主题拆分session,最大化上下文空间)
  • 附件(不要刻意管理压缩,换取更高效的体验)

为了保证最好的体验,对话/附件,不要刻意管理压缩,用AI就是为了体验效率的畅快,这两部分需要消耗多少就消耗多少,换取更高效的体验。

配置文件最小化,是节省Tokens的第一要务

比如我的模型上下文272k,我优化后的配置文件控制在8-10k,占比约4%,剩下的空间就留给对话/附件,营造更好的对话体验。

为了更高效的利用上下文你要做到4件事情

  • 控制配置文件大小8-10k(包含OpenClaw8层操作系统)
  • 配置文件记录的内容,能短就短,能删则删
  • 分主题拆分对话Session:主对话,系统运维、资产管理等等,分散高效利用上下文
  • 引入QMD检索系统,分层级读取日常记忆/OBsidian笔记库,渐进式披露,提高Tokens效率

这个如果手动来管理的话非常费力,不可持续!不用担心,我把这套管理沉淀成了skill,你一键安装就可以让OpenClaw自动学习使用。(文件放在知识库,自行获取)

───

Memory + QMD正确结构,让记忆文件压缩更高效!

配置文件最大的文件应该就是记忆文件,所以我们需要引入QMD检索系统,来优化记忆文件的结构及读取方式。

用了QMD系统,照样会失忆/燃烧tokens?

有人反馈说,用了QMD系统,并没有节省Tokens!

我们来梳理一下:OpenClaw读取记忆系统的链路

  • 核心记忆Memory.md(先读取,最重要的内容及第一级索引关键词)
  • QMD索引系统(当Memory中关键词触发,模型读取QMD索引系统,继续触发第二级关键词)
  • 日常记忆/笔记库等本地文档(读取日常记忆/笔记库中关键词片段,识别输出记忆)

OpenClaw先读取核心记忆(高价值低噪音),记忆中存放了QMD索引系统的入口,及核心关键词(20-40个);关键词触发,模型读取QMD索引系统文档,读到关键词后,再做进一步文档的读取。

如果不想还没开始对话,就把上下文撑满,那你的核心记忆Memory文档中,必须保持一个严格的门槛标准。

Memory 必须保持高价值,低噪音!

设“入库标准”(只有满足才进 MEMORY)

一条信息必须同时满足至少 2 条才进核心记忆:

  1. 会影响未来决策(>2周)
  2. 会被重复使用(流程/偏好/规则)
  3. 会造成明显损失(忘了会踩坑)
  4. 可操作、可验证(不是情绪感受)

MEMORY 里只放 3 类 QMD 信息

  1. 索引入口(collection/path/mask)
  2. 检索协议(先精确标题→再关键词→再语义)
  3. 高价值锚点词(最多 20-40 个,不是全量词库)

不放:长关键词列表、全文摘要、历史流水。

推荐结构(可执行)

在 MEMORY 里加一个很短的段:

• QMD collection: 改成你自己的命名_memory• source path: /Users/xxxx/改成你自己的命名_memory• search priority: title exact > keyword > semantic• hot anchors: LifeOS, MarkWave, Asset, OpenClaw, Skill Routing ...(控制上限)

然后把真正的关键词库放到独立文件(给 QMD 用,不进 MEMORY):• docs/qmd-keywords.md 或 QMD 内部索引元数据

QMD命中后,分层压缩注入

  1. 先返回候选(标题/路径/相关度)
  2. 只取 top-k(通常 3~5 条)
  3. 每条只取相关片段(例如 5~20 行)
  4. 再做一次摘要/去重后注入模型

OpenClaw不失忆、烧钱,必须让它搞定这些:

  • Memory解决去哪里找
  • QMD决定找到什么
  • 模型负责读及表达

第四部分:一键配置全自动化维护系统

4步配置QMD系统,节省Tokens的关键

一键配置Memory规则Skill,省时省力

这么多配置文件,如果每次都手动一个个更新,违背了使用AI的效率初衷。我写了一个技能,Memory Sync Protocol每次你要写入核心记忆,都会同步修改多个文件,减少文件手动配置复杂度。

当有新偏好/新规则时,统一执行:

  1. TOOLS 写执行细节
  2. MEMORY 写高层偏好
  3. AGENTS 写治理策略(必要时)
  4. daily memory 记变更日志
  5. git commit 留可回滚版本

一键配置自动化审核机制,减少人工管理难度

我同步做了自动化自审查机制,如果遇到问题会及时报错提醒你!这个审核技能帮你做两件重要事情!

1、审核Memory的写入原则(统一标准)
  1. 单一职责:每个文件只做一件事(各司其职)
  2. 最小必要:能短就短,能删就删
  3. 可执行:写“规则句”,不写空洞描述
  4. 可验证:重要规则要能被检查(路径/命令/触发词)
  5. 可过期:每条关键规则最好有失效条件或复审周期
2、周期自动化审核
  • 发给模型的多层核心文件大小控制在8-10k
  • Memory索引关键词20-40个
  • Memory提及阈值:>3KB 就提醒清理
  • 每周汇报总结更新,交给你决策哪些更新哪些删除(新增3个有效词,就删掉3个低命中词)
  • 命中统计:按最近一周query结果更新锚点次(数据驱动)遵循以上条件,每周发送周报,当出现数据超出,第一时间报告反馈。

知识库下载skill文件,直接发给你的Openclaw让它安装即可,这比“靠聊天让OpenClaw帮你记住”靠谱太多。Skill文档放在知识库,欢迎自行领取!


这次改造进化带来3个提升

  • memory规则更加清晰,我仍然仅用一句话,让Openclaw记忆某件事情
  • 记忆文件/OBsidian笔记库索引结构更清晰,模型渐进式读取,大大节省Tokens
  • 按照OpenClaw机制来更新优化的配置文件,模型读取更精准,Openclaw不再失忆

这意味着:更懂你 + 更稳执行 + 更省 token。 的龙虾已经成型

你不需要“更聪明的模型”,你需要的是:

更清晰的记忆结构与执行纪律。

当这套系统跑起来后,OpenClaw 才会从“聊天助手”变成“长期队友”。

你的 MEMORY 是哪种结构?

A. 所有内容都堆在一个文件,我用AI就是为了方便,模型读不到说明模型应该再进化!

B. 分了几个文件但比较乱,每次手动维护简直是噩梦!

C. 已经做了QMD索引,但是Tokens没有明显降低,难道是我姿势不对?

D. 还没开始整理,这篇直接喂给OpenClaw让它自动学习整理!

留言告诉我你的结构。

下一篇我们来聊聊OpenClaw的自动化神器有什么让你哇塞的玩法,欢迎关注更新!

#OpenClaw#AIAgent#Token优化#AI自动化#AI效率工具#知识管理#AI架构