# OpenClaw 2026.4.15 重磅更新:7大新功能深度解读
发布于 2026年4月16日 | 适用读者:已有 OpenClaw 使用基础的同学 | 全文约 3200 字
就在昨天(4月16日),OpenClaw 发布了 v2026.4.15([GitHub Release](https://github.com/openclaw/openclaw/releases/tag/v2026.4.15)),这是近一个月最重磅的一次更新。
359k Star 的开源 AI Agent 项目,每一次大版本都牵动整个 AI 开发者社区的神经。这次我们直接从 release 页面扒下了完整 changelog,结合自己的使用经验,给你做一次深度解读。
7大核心更新,涵盖模型升级、语音合成、认证可视化、云端记忆、Copilot 记忆搜索、本地模型轻量化、插件瘦身,总有一个会直接影响你明天的使用。
一、Claude Opus 4.7:默认模型全线升级
这是最直接的变化:Anthropic 模型的默认选择、`opus` 别名、Claude CLI 的图像理解能力,全部迁移到了 Claude Opus 4.7。
4.7 带来了什么?
简单说:更强的推理能力 + 更长的上下文 + 图像理解精度提升。
实际使用中感受最明显的是图像理解。以往给 Opus 丢一张复杂的技术截图,它偶尔会出现"看漏"的情况。4.7 在这方面有明显进步,特别是在多图对比、表格数据提取这些高难度操作上。
对于 OpenClaw 用户而言,这意味着:
- Sub-Agent 任务里如果涉及图像分析,结果质量会更高
- 自动化工作流中需要 AI"看"截图做判断的场景,成功率提升
- Claude CLI 绑定的图像理解也同步升级,命令行里直接分析图片的体验更顺滑
> 实操建议: 如果你之前用的是 `opus` alias,现在会自动用上 4.7,不需要改任何配置。如果你在 `SOUL.md` 或 agents 配置里写死了具体模型版本,建议改成 `opus` alias,方便后续自动跟随升级。
二、Google Gemini TTS:你的 AI 第一次能"说话"了
这是我个人最期待的功能——OpenClaw 现在原生支持 Gemini 文字转语音。
这次不只是"能调用",而是完整的语音输出链路
- Provider 级别的注册:Gemini TTS 作为一个完整 provider 接入 OpenClaw
- 声音选择:你可以指定不同的语音风格
- WAV 回复输出:生成的文件是标准 WAV 格式
- PCM 电话输出:支持电信级通话场景
- 安装文档和配置指引:开箱即用
([PR #67515](https://github.com/openclaw/openclaw/pull/67515),感谢贡献者 @barronlroth)
有什么用?
最直接的应用场景:
- 做 AI 播客:让 OpenClaw 帮你生成一期播客的完整文案,然后直接输出 WAV 音频文件
- 语音播报通知:搭配 cron 任务,早上定时把日报念给你听
- 客服自动化:多语言场景下,TTS 直接生成真人语音
- 无障碍工具:给视障用户做语音交互层
之前要实现这些功能,得自己绕路接第三方 TTS API。现在一行配置搞定。
> 配置提示: 需要有 Google AI Studio 的 API Key,在 `SOUL.md` 或 provider 配置里加入 `google` 的 TTS 相关设置。具体步骤参考 [PR #67515](https://github.com/openclaw/openclaw/pull/67515) 的说明。
三、Model Auth 状态卡:再也不会被 token 过期的坑绊倒
不知道你有没有遇到过这种场景:出门前设了一个 OpenClaw 自动化任务,回来发现它完全没执行,排查半天才发现是 OAuth token 悄悄过期了。
2026.4.15 彻底解决了这个问题。
Control UI 新增 Model Auth 状态卡
现在在 Control UI → Overview 界面里,会直接显示:
- OAuth token 健康状态:哪些 token 快过期、哪些已过期,一目了然
- Provider 限压指标:当前各平台的 rate-limit 压力,帮你判断为什么有时候请求变慢了
- 主动提醒:token 即将过期时会有 attention callout 提示
([PR #66211](https://github.com/openclaw/openclaw/pull/66211),感谢贡献者 @omarshahine)
这个功能背后有一个新的 gateway method `models.authStatus`,它会:
- 自动过滤掉敏感凭证信息(不会把 actual token 显示出来)
- 缓存 60 秒,避免频繁查询增加负担
对用户意味着什么?
- 再也不用靠"感觉不对"才发现 token 挂了
- 提前知道哪个 provider 快到限压了,主动切到备用方案
- 团队多账号管理场景下,管理者一眼看清全局状态
> 实操建议: 打开 Control UI → Overview,截图保存一份当前的 Model Auth 状态。以后遇到奇怪的 API 报错,先来这里看看是不是 token 出了状态问题。
四、LanceDB 云存储:记忆终于不依赖本地磁盘了
这是对高级用户影响最大的更新。
之前的问题
OpenClaw 的持久记忆系统(`memory-lancedb`)之前只能把索引存在本地磁盘。这带来几个实际问题:
- 换电脑、换磁盘,记忆全部丢失
- 多设备用户无法共享同一套记忆库
- 服务器部署场景下,数据和代码耦合在一起,不够灵活
现在的改变
2026.4.15 给 LanceDB 加了云对象存储支持,你的持久记忆索引可以放到 S3、Cloudflare R2、阿里云 OSS 等任何兼容的远程存储上。
([PR #63502](https://github.com/openclaw/openclaw/pull/63502),感谢贡献者 @rugvedS07)
这意味着:
- 记忆持久化:换机器不丢记忆,记忆跟着账号走
- 多设备同步:笔记本、台式机、服务器共用同一套记忆库
- 分布式场景:在多节点部署时,所有节点读写同一个记忆后端
- 数据与计算分离:存储层可以独立扩展,不受计算节点磁盘限制
> 进阶提示: 这个功能适合已经搭建好完整 OpenClaw 使用体系的用户。如果你是刚入门,可以先跳过,等熟练了再配置云存储记忆。需要云存储账号的 Access Key 和 bucket 配置。
五、GitHub Copilot 记忆搜索:记忆检索有了新入口
这是一个被很多人忽略但实际上非常实用的更新——OpenClaw 的记忆搜索现在接入了 GitHub Copilot embedding provider。
意味着什么?
之前如果你想在 OpenClaw 的记忆库里搜索内容,要么靠自带的向量检索,要么接 OpenAI/Claude 的 embedding 接口。现在多了一个选择:GitHub Copilot 的 embedding 模型。
这对已有 GitHub Copilot 订阅的用户特别友好——不需要额外申请 API Key,直接复用已有的认证体系做记忆检索。
另外,这次更新还暴露了一个 `Copilot embedding host helper`,插件开发者可以复用这个 transport,同时支持远程覆盖、token 刷新和更安全的 payload 验证。
([PR #61718](https://github.com/openclaw/openclaw/pull/61718),感谢贡献者 @feiskyer 和 @vincentkoc)
六、本地模型轻量化:低配硬件的救星
最后一个更新,针对的是用本地模型跑 OpenClaw 的同学。
什么是 `localModelLean`?
OpenClaw 的 Agent 默认会加载一套完整的工具集(browser、cron、message 等),这对云端大模型来说不算什么负担。但如果你用 Ollama、lmstudio、LocalAI 等本地模型运行,token 消耗和响应速度都会受到明显影响。
2026.4.15 新增了一个实验性配置:
agents.defaults.experimental.localModelLean: true
开启后,Agent 会自动丢弃以下重量级默认工具:
- browser
- cron
- message
从而显著减少 prompt 体积,让弱算力的本地模型也能流畅运行。
([PR #66495](https://github.com/openclaw/openclaw/pull/66495),感谢贡献者 @ImLukeF)
适合谁?
- MacBook Air、树莓派、低配 Linux 机器上跑 OpenClaw 的用户
- 用 Ollama 跑 7B 以下模型的同学
- 对响应速度和 token 消耗比较敏感的场景
> 注意: `localModelLean` 是实验性功能,开启后部分依赖 cron/browser/message 的 Skill 可能受影响。建议先在非主力配置上测试,确认没问题再迁移。
七、插件架构瘦身:安装包更轻量了
这是一个幕后的工程改进,但对整体生态有长远影响。
改变了什么?
bundled plugin 的运行时依赖现在归各自插件自己管理,core 不再替插件背运行时包袱。具体来说:
- 插件的运行时依赖局部化到各自扩展,不再塞进 core
- 发布的文档 payload 变得更精简
- 安装和包管理器的 guardrails 更严格
([PR #67099](https://github.com/openclaw/openclaw/pull/67099),感谢贡献者 @vincentkoc)
这意味着:
- `npm install openclaw` 后的安装体积会更小
- 插件之间的依赖冲突概率降低
- 未来插件生态扩大会更干净
总结:这次更新回答了什么问题?
| 更新 | 解决的问题 | 对应 PR | |------|-----------|---------| | Claude Opus 4.7 | AI 能力原地提升,图像理解更强 | — | | Gemini TTS | 补全"语音输出"能力,覆盖新场景 | [#67515](https://github.com/openclaw/openclaw/pull/67515) | | Model Auth 状态卡 | token/限压状态黑盒变白盒 | [#66211](https://github.com/openclaw/openclaw/pull/66211) | | LanceDB 云存储 | 记忆系统突破本地磁盘限制 | [#63502](https://github.com/openclaw/openclaw/pull/63502) | | Copilot 记忆搜索 | 记忆检索多了 GitHub Copilot 选项 | [#61718](https://github.com/openclaw/openclaw/pull/61718) | | localModelLean | 本地模型轻量化部署成为可能 | [#66495](https://github.com/openclaw/openclaw/pull/66495) | | 插件瘦身 | 安装包更轻,生态更干净 | [#67099](https://github.com/openclaw/openclaw/pull/67099) |
整体来看,这次更新的主题是:让 OpenClaw 从"能用"到"好用",从"好用到"覆盖更全面的场景。
附:如何升级到 2026.4.15
# npm 全局安装用户
npm update -g openclaw
# 或者用 npx 直接跑最新版
npx openclaw@2026.4.15
升级后记得 `openclaw --version` 确认版本号,看到 `2026.4.15` 就是升级成功了。
有问题欢迎在评论区交流。觉得有用的话,转发给你身边用 OpenClaw 的朋友。
━━ THE END ━━
作者:虾米AI派 | 欢迎转发给身边用OpenClaw的朋友
夜雨聆风