# OpenClaw 2026.3.12 正式发布!本地AI网关迎来重磅升级:Dashboard v2 + 极速模式 + 安全大修,值得每位自托管玩家升级
大家好,我是agent老实人 。最近一直在折腾自托管的 AI 代理系统,OpenClaw 几乎成了我日常的“数字大脑”。就在今天(2026年3月13日),官方丢出了 v2026.3.12 这个版本,GitHub release notes 直接刷屏,社区也炸了锅。
一句话总结:UI 更丝滑、核心更轻、安全拉满、稳定性暴增。尤其是把本地推理后端插件化 + 设备令牌临时化,感觉是为未来真正上生产环境在铺路。
下面带大家快速过一遍这次更新的核心干货(基于官方 release + 社区反馈整理):
1. 🎛️ Dashboard v2 —— 控制面板彻底重做,颜值与效率双在线
以前的 dashboard 虽然能用,但总觉得有点“上古风”。这次 v2 完全重构:
• 模块化布局:概览、聊天、配置、Agent、会话视图一目了然 • 命令面板(Command Palette)—— 键盘党狂喜,按 Ctrl+K 就能快速跳转 • 移动端友好:底部 Tab 导航 + 响应式设计,出门用手机也能舒服操作 • 聊天体验大升级:支持 slash 命令、消息搜索、导出、置顶消息等“富交互”工具
社区截图:新 Dashboard 概览 + 模块化面板,session 下拉菜单超帅
Command Palette 一键召唤,效率拉满
手机端底部 Tab 设计,操作丝滑
社区已经刷出不少截图,新界面确实好看多了。想快速监控所有 Agent、切换模型、查看实时日志,现在爽太多了。
2. ⚡ /fast 模式正式落地,模型响应速度起飞
给主流模型加了可配置的“极速开关”:
• 支持 OpenAI GPT-5.4 和 Anthropic Claude • 在 TUI、控制面板、ACP 里都能一键 toggle • 还能按模型设置默认 fast 参数,API 请求自动整形
简单说:以前等模型“思考”半天,现在可以直接切 fast 档,延迟肉眼可见降低。适合需要快速响应的场景,比如实时聊天、自动化回复等。
3. 🔌 Ollama / SGLang / vLLM 彻底插件化,核心大瘦身
以前这些本地推理后端是硬塞在主程序里的,现在全部挪到 provider-plugin 架构:
• 切换后端更灵活,未来加新 provider 不用改核心代码 • 模型选择器、onboarding 流程都由插件自己负责 • 整体包体积更小,维护也更轻松
这步改动对喜欢折腾本地大模型的同学超级友好,以后想换 DeepSeek、Llama-4-local 什么的,插拔式操作就行。
4. 🛡️ 安全重磅加固(这次才是大头!)
官方这次修了上百个安全问题,列几个重点:
• 设备配对令牌改为临时(ephemeral),QR 码不再永久嵌入凭证,极大降低泄露风险 • 禁用插件自动加载,防止 git clone 仓库偷偷执行恶意代码 • 修复 Unicode 零宽字符欺骗、命令伪装等经典攻击(多个 GHSA 漏洞) • /config 和 /debug 限制 owner 专用 • WebSocket scope 自提权、浏览器持久 profile 等高危路径全封堵 • Exec allowlist、hook、agent 血统链等层层加固
典型 LLM Gateway 安全控制平面示意(参考类似项目)
一句话:如果你把 OpenClaw 跑在公网或多人环境,这次更新必须升。
5. 其他实用改进 & Bug 修复
• Agents 支持 sessions_yield,编排器能立刻结束当前轮次并带隐藏 payload • Slack 支持 Block Kit 富消息 • Kubernetes 入门部署文档 + 原始 manifests 来了(自建党狂喜) • Cron 定时任务 + Windows 环境下稳定性大修,不再容易丢消息或卡死 • iMessage echo loop、TUI 重复回复、Mattermost 重复投递等一堆烦人 bug 全解决 • Kimi Coding 工具调用格式恢复正常
升级建议
直接去 GitHub Release 页面拉最新版:https://github.com/openclaw/openclaw/releases/tag/v2026.3.12
升级前记得:
1. 备份配置(openclaw backup 现在更稳了) 2. 跑 openclaw doctor 检查环境 3. Windows 用户尤其注意更新流程优化 4. 升完重启 gateway 和相关服务
总体评价:如果你的 OpenClaw 还停在 3.8 或更早版本,这次跳升非常值得。Dashboard v2 让日常管理舒服太多,安全补丁又刚好补齐了之前被 CERT 点名的几个坑,本地模型插件化更是给未来扩展留足空间。
有朋友已经在生产环境用上了(比如 roofing 公司凌晨自动 triage 线索),反馈 cron 稳了、延迟低了、数据不离本地,真的香。
你升了吗?新 dashboard 截图好看不?欢迎评论区交流~🦞
(完)
喜欢记得点个在看 + 转发给同样在玩自托管 AI 的朋友哦~
夜雨聆风