OpenClaw 升级「人脉维基」记忆:AI 助手终于能记住你是谁
人脉维基 · 主动记忆 · 暗含承诺
openclaw/openclaw v2026.4.29 把记忆从「记着」升级为「认得」:
不只是记住你说过什么,还认得谁是谁、能在合适的时机主动提起。
项目定位:个人 AI 助手的控制平面
OpenClaw 是一个自托管个人 AI 助手,用户在自己的设备上运行
Gateway,通过 20+ 消息渠道(Telegram、WhatsApp、Slack、
微信等)与它对话。它不依赖特定模型——Gateway 只做控制面,
模型层可接 OpenAI、本地 Llama、NVIDIA、Bedrock 等任意
provider。截至 v2026.4.29,GitHub 已超 36.6 万 star,
从 2025 年 11 月创建至今保持高频迭代。Core 层用 TypeScript
编写,插件体系覆盖记忆、浏览器、自动化、技能编排等场景。
AI 助手的「记性」瓶颈在哪
使用过个人 AI 助手的人都有这样的体验:
• 每次对话都要重新交代背景——你喜欢什么语言、
团队里谁负责哪块、上次讨论到哪步
• 即便开了记忆,往往只是关键词检索式的「回看」,
而非语义上的「认识」关系
• 你在聊天里提到「明天面试」,期待助手之后问一句
「面试怎么样」——但传统系统不会主动跟进
更隐蔽的问题是事后跟进。传统记忆系统靠用户主动触发
「帮我记住」或提示词调度,对话里自然产生的跟进机会常被遗漏。
OpenClaw 此前的记忆体系以 MEMORY.md 为核心,被动读写。
v2026.4.29 用两项变更直接回应这两个痛点:
人维记忆结构化 和 对话承诺机制。
这两项能力实际怎么用
People Wiki:维基式人物记忆
memory-wiki 插件在本版引入了完整的人维信息结构。
每一个被记住的人可以拥有结构化卡片,包含:
• 别名体系(别名、社交账号、邮箱、时区)
• 关系图谱(与谁协作、证据来源、置信度)
• 路由提示(什么场景该问谁、什么不该问)
• 隐私分级(公开 / 仅本地 / 敏感 / 确认后使用)
配置在 yaml 格式的 wiki 实体页中完成。
例如一位同事的条目可以写成:
entityType: person
aliases:
- 老王
personCard:
handles: ["@laowang"]
timezone: Asia/Shanghai
askFor: ["运维排障"]
relationships:
- targetId: entity.zhang
kind: collaborates-with
confidence: 0.85
wiki_search --mode find-person 可按别名模糊定位某人,
wiki_get 查看详细信息,reports/relationship-graph.md
自动生成关系图。
Inferred Commitments:不留痕迹的跟进提醒
在 commitments.enabled: true 和
commitments.maxPerDay: 3 (默认值)配置打开后,
OpenClaw 会在每次回复后执行一次静默提取:
• 在独立上下文里扫描对话中隐含的跟进义务
• 不写入可见对话,不干扰主线回复
• 发现高置信度的承诺候选后,存储一条含 agent id、
会话 key、目标渠道的记录
• 通过 heartbeat 周期在合适时机主动推送检查
例如你说「明天下午面试」,次日助手可能主动问「面试怎么样」
——不需要你特意说「帮我记住」,也不额外消耗对话 token。
其他值得关注的变化
Active Memory 插件新增了 allowedChatIds / deniedChatIds
配置——让运维者只在白名单的特定群组或频道启用主动记忆召回,
避免广泛扫描带来的隐私隐患。同时,记忆子 Agent 超时时
不再丢弃已收回的片段,而是返回部分摘要;新加的 REM 诊断
接口(doctor.memory.remHarness)让运维者可以预览梦境
合成输出而不触发实际写入。
Gateway 层面新增启动诊断时间线,通过一个配置开关即可记录
Gateway 生命周期和插件加载阶段,方便定位慢启动问题。
NVIDIA 成为新的官方 provider,支持 API key 引导注册和
静态模型目录选择。Bedrock 的 Opus 4.7 实现 thinking parity
(思维链等价传输),对需要模型推理可审计的场景有用。
消息队列默认切为 steer 模式——新轮次到达时自动排空
待处理的 steering 消息,替代旧的逐条投递方式。
messages.visibleReplies 让运维者可要求所有可见回复
必须通过 message(action=send) 输出,适用于需要审计
所有发言的渠道。
记忆分层与编排设计
这次更新的背后是 OpenClaw 记忆体系的分层架构:
• Active Memory 插件(memory-core / QMD)
负责召回、语义搜索、梦境合成——管搜索和临时上下文,
对话中即时判断哪些片段相关
• memory-wiki 插件
负责将持久化知识编译为可导航的 wiki 页——管结构化知识
和实体管理,包括人的关系、组织归属、确定性信息
两者的协作模式是:Active Memory 先做一轮广泛语义召回,
memory-wiki 在结果中提供结构化卡片、置信度和溯源证明。
用户可以通过 memory_search corpus=all 跨两层一次性搜索。
Inferred Commitments 是一个独立的背景提取器,
运行在子 Agent 上下文中,与主对话互不干扰。它通过
heartbeat 定时器而非对话记忆来触发检查,避免了对
MEMORY.md 的污染。提取过程默认有每日上限
(maxPerDay: 3),防止过度打扰。
这种三层结构让「快速检索」、「结构化知识」和「异步跟进」
三个不同粒度的记忆需求各司其职,而不是堆在同一层里
用 if-else 区分。对于已经在运行 OpenClaw 的用户,
升级到 v2026.4.29 后只需配置 commitments.enabled 和
memory-wiki 插件即可开启新体验,无需重搭 Gateway。
安全方面,本版新增了 OpenGrep 规则扫描、GHSA 分级策略
优化以及 tools.exec / tools.fs 配置不再在限制型
profile 中隐式放行——对安全策略有要求的运维者建议
关注这些边界变更。
夜雨聆风