1.1 当前版本状态
截至 2026 年 4 月13日,OpenClaw 最新版本为 v2026.4.12(发布于 4 月 13 日),你的设备若未更新,可执行以下命令升级:
# 查看当前版本openclaw --version# 升级到最新版openclaw update# 或通过 npm 升级(如果你用 npm 安装)npm update -g openclaw当前版本:OpenClaw 2026.3.13(本地)→ 最新 v2026.4.12(GitHub)升级建议:建议所有用户升级至 v2026.4.12,获取最新安全补丁和稳定性提升。
1.2 v2026.4.12 核心更新(4 月 13 日)
🔥 本期最重磅:LM Studio 本地模型 Provider 正式上线
这是本期最值得关注的更新。OpenClaw 新增捆绑的 LM Studio Provider,为本地大语言模型提供了完整的集成支持。
解决的问题:用户希望在本地运行 LLM(如 Ollama、LM Studio、text generation webui 等),但 OpenClaw 之前对自托管 OpenAI 兼容端点的支持不够完善。LM Studio Provider 的出现,让本地模型接入变得即插即用。
核心特性:
- 开箱即用的 onboarding
:首次配置向导引导用户完成 LM Studio 连接 - 运行时模型发现
:自动检测 LM Studio 中可用的模型列表 - Stream preload 支持
:优化流式输出的首 token 延迟 - Memory-search embeddings
:支持本地 embedding 用于语义搜索 - 隐私优先
:所有推理在本地完成,数据不离开设备
适用场景:
需要离线使用 AI 的用户 对数据隐私有严格要求的企业(金融、医疗、法律) 希望节省 API 成本的高级用户 本地测试 prompt engineering 的开发者
配置示例:
{"models":{"providers":{"lm-studio":{"endpoint":"http://localhost:1234/v1","api_key":"lm-studio"}}}}开启方式:
openclaw configure --provider lm-studio# 按提示输入 LM Studio 地址(默认 http://localhost:1234)🛡️ Convex 后台 Telegram 凭证池化
新增基于 Convex 的 Telegram 凭证管理系统,解决多设备登录时的凭证冲突问题。
解决的问题:当用户在多个设备上使用 OpenClaw 的 Telegram 集成时,凭证管理一直是个痛点。Convex 后台提供了集中化的凭证租赁机制。
核心功能:
openclaw qa credentials admin命令家族 凭证租赁(Credential Leasing)机制 私有群 bot-to-bot 检查 原生 Telegram 命令回复线程保持
新增 QA 命令:
# 管理凭证openclaw qa credentials admin listopenclaw qa credentials admin revoke <token># Telegram QA 通道openclaw qa telegram --private-group <group_id># Broker 设置文档openclaw qa broker setup-docs⚡ Plugin Loading 全面优化
这是 v2026.4.12 改动量最大的部分,涉及 5 个 PR,核心目标是减少不必要的插件加载。
优化内容:
性能收益:
启动速度提升约 20-30% 内存占用减少 插件隔离性增强,避免交叉影响
用户感知:无感,但会让 OpenClaw 跑起来更快、更稳定。
🔐 三项重要安全修复
本期包含 3 个安全修复,建议所有用户尽快升级:
| busybox/toybox 移除 | ||
| Approval 空列表防护 | ||
| Shell 注入防护 |
安全建议:
# 检查是否有待处理的安全更新openclaw update --check# 查看安全公告openclaw security --advisories🚀 Gateway 启动优化
Gateway 启动流程进行了重构,提升了在 sidecar 模式下的可靠性:
主要改进:
延迟调度服务直到 sidecar 完成 Chat history 和 model listing 在 sidecar resume 期间受保护 Control UI 重试启动门控的历史加载 Sandbox wake 优先恢复 channel
用户体验:Cold start 场景(如服务器重启后)不再出现 channel 恢复失败的问题。
💬 Control UI / Webchat 交互升级(延续 v2026.4.11)
助手媒体/回复/语音指令以结构化气泡渲染 新增 [embed ...]富输出标签外部嵌入 URL 需要显式验证配置 消息卡片与 AI 回复音频/工具调用正确关联
📮 Feishu(飞书)集成增强(延续 v2026.4.11)
文档评论会话支持更丰富的上下文解析 评论反应(表情回复) 打字反馈,让文档评论更像聊天
1.3 版本演进对比:v2026.4.10/11 vs v2026.4.12
升级建议:从 v2026.4.10/11 升级到 v2026.4.12 是强烈推荐,尤其是涉及 Telegram 集成或对安全性有要求的用户。
1.4 OpenClaw 本地模型部署指南(LM Studio 篇)
为什么选择本地模型?
- 隐私
:数据不经过第三方服务器 - 成本
:一次性硬件投入,无 API 调用费用 - 离线
:无网络也能使用 - 定制
:可以加载微调模型、LoRA 权重
LM Studio 简介
LM Studio 是一款跨平台桌面应用,支持:
加载 GGUF/GGML 格式的模型 本地 REST API server(兼容 OpenAI API) 模型下载与管理 GPU 加速(CUDA/Metal)
快速开始
步骤 1:下载 LM Studio
# 官网下载:https://lmstudio.ai/# 或通过 Homebrew(macOS)brew install lmstudio步骤 2:在 LM Studio 中下载模型
打开 LM Studio 在 "Search" 面板搜索模型(如 "Qwen2.5-7B") 下载 GGUF 格式的 Q4_K_M 量化版本(约 4GB) 在 "Local Server" 标签页启动服务器(默认端口 1234)
步骤 3:在 OpenClaw 中配置
openclaw configure --provider lm-studio# 按提示输入: http://localhost:1234步骤 4:验证连接
openclaw models list# 应该能看到 lm-studio provider 下的模型列表
夜雨聆风