点击下方👇 嘿哥的AI基地 关注公众号
一起探索AI的世界
大家是不是发现我们的龙虾还没怎么用token就已经消耗一大半了。
今天我们就来一起看看怎样可以优化一下我们的龙虾。
一、OpenClaw配置优化
1、让龙虾认识自己
"agents": {"list": [ {"id": "main","identity": {"name": "小嘿","emoji": "o( ❛ᴗ❛ )o" } } ]}OpenClaw 身份配置
main:定义系统默认调用的主代理角色。name:设置机器人的对外显示昵称。emoji:通过颜文字设定角色的视觉形象。
这样优化的好处:快速定制拟人化身份,显著提升交互亲和力。
2、连续消息合并
"messages": {"inbound": {"debounceMs": 3000 }}输入流控配置
inbound:定义系统接收外部输入信号的策略。debounceMs:设置 3000 毫秒的防抖延迟。功能:防止高频重复触发,合并短时间内的多次输入。
这样优化的好处:有效拦截高频冗余输入,显著提升系统响应稳定性。
3、会话过期
"session": {"dmScope": "per-channel-peer","reset": {"mode": "daily","atHour": 3,"idleMinutes": 120 }}会话管理配置
dmScope:按频道和用户隔离会话,确保上下文互不干扰。mode:设定重置周期为每日执行,定期清理历史数据。atHour:指定凌晨三点触发重置,利用低峰期自动维护。idleMinutes:闲置 120 分钟自动重置,防止无效占用内存。
这样优化的好处:兼顾长时会话连续性,自动清理长期闲置冗余。
4、heartbeat 降频
"agents": {"defaults": {"heartbeat": {"every": "120m","activeHours": {"start": "07:00","end": "24:00" } } }}心跳机制配置
heartbeat:定义系统的存活检测与自唤醒逻辑。every:设定每隔 120 分钟执行一次检测。activeHours:限制心跳任务仅在 7点至24点间运行。
这样优化的好处:按需唤醒系统确保稳定,避开深夜运行节省资源。
5、自动裁剪旧内容
"agents": {"defaults": {"contextPruning": {"mode": "cache-ttl","ttl": "5m" } }}上下文裁剪配置
contextPruning:定义如何自动清理或缩减历史对话。mode:设置基于缓存生存时间(TTL)的清理模式。ttl:设定上下文数据在 5 分钟后自动过期。
这样优化的好处:定期清理过期缓存,确保存储精简并降低调用成本。
6、防记忆丢失
"agents": {"defaults": {"compaction": {"mode": "safeguard","reserveTokensFloor": 24000,"memoryFlush": {"enabled": true,"softThresholdTokens": 6000 } } }}数据压缩配置
compaction:定义上下文压缩策略,优化长对话性能。mode:开启安全保护模式,防止上下文超出限制。reserveTokensFloor:保留两万四千个基础令牌,确保存档完整。memoryFlush:启用内存冲刷功能,自动清理冗余数据。enabled:开启该清理机制,实时监控内存占用情况。softThresholdTokens:达到六千令牌时,触发柔性清理机制。
这样优化的好处:在安全防护下强制释放内存,确保系统运行稳健高效。
7、subagents 模型降级
"agents": {"defaults": {"subagents": {"maxConcurrent": 8,"archiveAfterMinutes": 30,"model": "qwencode/MiniMax-M2.5" } }}子智能体配置
subagents:定义子智能体运行规则,管理并发与存档。maxConcurrent:限制最大并发数为 8,控制系统资源占用。archiveAfterMinutes:闲置 30 分钟后自动存档,释放运行内存。model:指定调用 MiniMax-M2.5 模型进行任务处理。
这样优化的好处:利用高性能模型提升语义理解,并通过自动归档降本增效。
8、时区修正
"agents": {"defaults": {"userTimezone": "Asia/Shanghai","timeFormat": "24" }}时区配置
userTimezone:设置用户所在时区为上海,同步本地时间。timeFormat:指定采用 24 小时制显示,符合日常习惯。
这样优化的好处:确保心跳时间、定时任务等逻辑与本地同步。
9、cron 链接修复
升级版本后,一定要检查 cron 任务里的硬编码路径和命令。 这种隐形bug不会报错,只是会默默失效。
例如,clawdbot 更名为 openclaw 后:
文档索引的 URL 还指向旧域名 docs.clawd.bot,改成了 docs.openclaw.ai 。 认证监控的命令还是旧的 clawdbot,改成了 openclaw 。
二、用 QMD 替代默认记忆搜索
QMD源码地址:https://github.com/tobi/qmd
1、QMD 替代默认记忆搜索的核心优势
QMD(Quick Memory Dispatcher)是一个本地优先的语义搜索工具,它通过“侧车进程”(Sidecar Process)的方式运作,相比原生的 SQLite 索引器有显著提升:
极致的 Token 节省:默认搜索可能会将大段历史记录塞进上下文,而 QMD 采用 BM25 + 向量 + 重排 的混合检索模式,只提取最相关的 2-3 句话。据社区反馈,这能让上下文 Token 消耗降低 60% ~ 97%。 多源知识融合:QMD 不仅索引 MEMORY.md,还能把指定的本地文件夹、项目文档全部编入统一索引,让 OpenClaw 具备“本地知识库”的能力。更快的响应速度:由于 QMD 是本地运行的侧车进程,它在处理数万 Token 级别的长文本检索时,比完全依赖大模型检索要快得多,通常能将延迟控制在 1 秒以内。
2、如何实现替代
安装 QMD 环境:可以通过如下命令全局安装 QMD 工具链。
# 1. 安装 QMDnpm install -g @tobilu/qmd# 2. 确认 qmd 命令可用qmd --version配置 OpenClaw:在 OpenClaw 的配置文件中,将记忆插件(Memory Plugin)的路径或类型指向 QMD 后端。
"memory": {"backend": "qmd","citations": "auto", // 引用格式:auto/inline/block"qmd": {"command": "qmd", // QMD 可执行文件路径"searchMode": "query", // 混合搜索(语义+关键词)"includeDefaultMemory": true, // 包含默认记忆文件"update": {"interval": "5m", // 索引自动更新间隔"debounceMs": 15000, // 防抖时间"onBoot": true // 启动时同步索引 } }}配置好之后,重启 Gateway 生效。
索引更新:系统会自动在后台运行 qmd update和qmd embed,将对话记录和本地 Markdown 文件实时转化为可搜索的向量索引。
如果发现 OpenClaw 越聊越贵,或者开始“胡言乱语”丢失记忆,切换到 QMD 是最有效的解决手段之一。
分享就到这里了,如果对大家有帮助,随手点个赞、转发、推荐三连吧,如果想第一时间收到推送,也可以给我个星标。
有任何想法,欢迎大家留言~
小手一赞,年入百万!👍👍👍

夜雨聆风