乐于分享
好东西不私藏

OpenClaw 2026.4.12 发布:5大核心功能升级与 Active Memory 深度解析

OpenClaw 2026.4.12 发布:5大核心功能升级与 Active Memory 深度解析

一句话总结

OpenClaw 2026.4.12 版本通过 Active Memory 主动记忆插件MLX 本地语音合成 和 Telegram 凭证池 等创新功能,让 self-hosted AI Agent 具备更自然的上下文记忆能力与更灵活的部署选项,显著降低多平台集成的运维成本。


为什么这次更新值得关注?

对于运行自建 AI Agent 系统的开发者来说,长期对话中的上下文断裂多平台凭证管理一直是两大痛点。本次更新不仅解决了这些问题,还首次将 Apple Silicon 的本地 AI 能力深度集成到语音交互中。无论你是构建 Discord/Telegram 机器人,还是部署企业级网关服务,这些改进都能直接提升用户体验和系统可靠性。


核心功能详解

一、Active Memory:让 AI 真正”记住”对话

Active Memory 是本次最重要的功能 additions。它作为一个可选的记忆子代理,在主回复前自动注入相关偏好、上下文和历史细节——用户无需再说”记住这个”或”搜索记忆”。

三种上下文模式

模式
说明
适用场景
message
仅当前消息上下文
快速问答、简单指令
recent
近期对话摘要
日常多轮对话
full
完整历史检索
复杂项目追踪、长期关系维护

配置与调试

# 启用 Active Memory 插件openclaw config set memory.active.enabled true# 设置上下文模式(message/recent/full)openclaw config set memory.active.mode recent# 实时查看记忆检索过程openclaw chat --verbose

高级调优选项

  • Prompt 覆盖:自定义记忆检索的 system prompt
  • Thinking 覆盖:调整推理深度与响应速度的平衡
  • 转录持久化:可选开启调试日志,分析记忆命中质量

📖 完整文档:Active Memory 概念指南[1]


二、macOS Talk:Apple Silicon 本地语音合成

针对隐私敏感场景,新版本新增 MLX 本地语音提供商,完全离线运行:

# 查看可用的语音提供商openclaw talk providers list# 启用 MLX 本地语音(实验性)openclaw talk set-provider mlx --local# 测试语音合成openclaw talk "你好,这是本地合成的语音"

关键特性

  • 显式提供商选择:避免自动切换导致的意外网络请求
  • 本地 utterance 播放:零延迟响应
  • 打断处理:支持用户中途打断并重新输入
  • 系统语音回退:MLX 加载失败时自动降级

三、Telegram 凭证池:多账号弹性调度

对于需要管理大量 Telegram Bot 的运维场景,新版本引入 Convex-backed 凭证池

# 查看凭证池状态openclaw qa credentials list# 租赁临时凭证(用于测试/QA)openclaw qa credentials lease --platform telegram --ttl 1h# 释放凭证回池openclaw qa credentials release <credential-id>

架构优势

  • 凭证集中加密存储于 Convex 后端
  • 支持动态租赁与自动回收
  • 与 openclaw qa suite 集成,实现隔离的端到端测试

四、Gateway RPC 扩展:远程命令发现

网关服务新增 commands.list RPC,让远程客户端能够动态发现可用能力:

// 客户端示例:获取网关命令列表const response = await gatewayClient.rpc('commands.list', {surface'text',        // 可选过滤:text, skill, plugin, nativeincludeMetadatatrue// 返回参数序列化信息});// 响应示例{commands: [    {name'reminder.set',surface'skill',description'设置定时提醒',arguments: {time: { type'cron'requiredtrue },message: { type'string'requiredtrue }      }    }  ]}

这为构建动态 UI 和第三方集成提供了标准化接口。


五、执行策略 CLI:本地工具权限管控

针对 tools.exec.* 的安全配置,新增本地管理命令:

# 查看当前执行策略openclaw exec-policy show# 应用预设策略(development/staging/production)openclaw exec-policy preset production# 自定义策略:禁止特定节点执行openclaw exec-policy set --reject-node-host "untrusted-worker-*"# 检测配置冲突openclaw exec-policy set --dry-run

安全加固

  • 节点主机拒绝规则(node-host rejection)
  • 回滚安全机制
  • 同步冲突自动检测

其他重要改进

功能
说明
贡献者
Multipass QA 运行器
在隔离 Linux VM 中执行测试场景
@shakkernerd
Matrix 实时打字效果
MSC4357 标准支持,客户端显示逐字动画
@TigerInYourDream
私有网络访问控制
按提供商配置 allowPrivateNetwork,安全连接自建 OpenAI 兼容端点
@qas
文档 i18n 稳定性
分块翻译、截断检测、会话恢复
@hxy91819
Dreaming UI 简化
Scene 和 Diary 界面优化,状态显示更清晰
@davemorin

FAQ

Q1: Active Memory 会显著增加 API 调用成本吗?

不会。Active Memory 的设计遵循”按需检索”原则:

  • 仅在必要时触发记忆子代理
  • 支持配置最大检索深度和 token 预算
  • recent 模式使用本地缓存摘要,零额外 API 成本

建议从 recent 模式开始,根据实际效果逐步调整。

Q2: MLX 语音需要多少本地显存/内存?

在 Apple Silicon 设备上测试:

  • M1/M2 (8GB 统一内存):基础语音合成流畅运行
  • M2 Pro/Max 及以上:支持更高采样率和并发处理

首次使用时会自动下载约 500MB 模型文件,后续完全离线。

Q3: 如何迁移现有的 Telegram Bot 到凭证池架构?

迁移步骤:

  1. 将现有 bot token 导入 Convex:openclaw qa credentials import --file tokens.json
  2. 更新应用配置,使用租赁接口而非硬编码 token
  3. 在 CI/CD 中集成 openclaw qa credentials lease 实现测试隔离

旧版硬编码方式仍兼容,但建议逐步迁移以获得弹性调度能力。

Q4: allowPrivateNetwork 配置是否存在安全风险?

该选项默认关闭,且遵循最小权限原则:

  • 按单个提供商配置,不影响其他服务商
  • 仅作用于模型请求层,与插件执行网络隔离
  • 建议配合 mTLS 或内部 DNS 使用
# 安全示例:仅对自建端点启用openclaw config set models.providers.my-openai.request.allowPrivateNetwork true

Q5: 本次更新是否包含破坏性变更?

无破坏性变更。所有新功能均为可选启用:

  • Active Memory:默认关闭
  • MLX 语音:需显式选择
  • 凭证池:完全向后兼容

Gateway 和 CLI 的内部重构仅影响可维护性,不改变外部行为。


总结与下一步

OpenClaw 2026.4.12 的核心价值在于降低记忆管理的认知负担扩展边缘部署的灵活性。建议开发者:

  1. 立即尝试:在测试环境启用 Active Memory,体验”无感知”上下文保持
  2. 评估场景:检查现有 Telegram/Matrix 部署是否可从凭证池受益
  3. 关注实验功能:MLX 语音为隐私优先应用开辟了新可能

相关阅读

  • OpenClaw 官方文档[2]
  • Active Memory 深度指南[3]
  • Gateway RPC 规范[4]
  • MLX 语音配置教程[5]

参考来源

  • OpenClaw v2026.4.12 Release Notes[6]
  • Active Memory 官方文档[7]
  • MLX Framework[8]
  • Matrix MSC4357 规范[9]

引用链接

[1]Active Memory 概念指南: https://docs.openclaw.ai/concepts/active-memory

[2]OpenClaw 官方文档: https://docs.openclaw.ai

[3]Active Memory 深度指南: https://docs.openclaw.ai/concepts/active-memory

[4]Gateway RPC 规范: https://docs.openclaw.ai/api/gateway-rpc

[5]MLX 语音配置教程: https://docs.openclaw.ai/guides/macos-mlx-speech

[6]OpenClaw v2026.4.12 Release Notes: https://github.com/openclaw/openclaw/releases/tag/v2026.4.12

[7]Active Memory 官方文档: https://docs.openclaw.ai/concepts/active-memory

[8]MLX Framework: https://github.com/ml-explore/mlx

[9]Matrix MSC4357 规范: https://github.com/matrix-org/matrix-spec-proposals/pull/4357