
昨天(3月25日),OpenClaw 推送了一个版本更新。
Changelog 拉到最上面,第一条改动是这样的:
Gateway/OpenAI compatibility: add /v1/models and /v1/embeddings, and forward explicit model overrides through /v1/chat/completions and /v1/responses for broader client and RAG compatibility.
很多人看到这句话,可能觉得是个"技术债"级别的更新——加几个 API 端点,让第三方工具能连上来,没什么新鲜的。
如果你也这么理解,那你就错过了这次更新最重要的一件事。
OpenClaw 正在从"聊天前端"变成"AI 网关"。
这句话是今天文章的核心。我来解释清楚它意味着什么,以及对谁有意义。
发生了什么
先说清楚技术事实。
OpenClaw 这次的更新,往 Gateway 里加了三样东西:
📦 /v1/models— 返回当前 OpenClaw 支持的模型列表
📦 /v1/embeddings— 提供 embedding 生成能力
📦 /v1/chat/completions & /v1/responses— 转发显式的模型覆盖参数
这三个端点组合起来,形成了一套完整的 OpenAI API 兼容层。
什么叫"兼容层"?
意思是:只要一个工具能连 OpenAI 的 API,它现在理论上也能连 OpenClaw 的 Gateway。因为 OpenClaw 的端点路径、请求格式、响应结构,都跟 OpenAI 保持一致。
为什么这件事重要
说重要之前,先说清楚一件事:OpenClaw 以前不是也能调用模型吗?有什么区别?
区别在于:以前模型是给 OpenClaw 自己用的,现在模型可以给别人用。
之前的 OpenClaw,是个"前端"——你跟它对话,它调模型,返回答案。这个能力是封闭的,只有通过 OpenClaw 的聊天界面才能触达。
加了 `/v1/models` 和 `/v1/embeddings` 之后,OpenClaw 变成了一个标准的模型服务提供商。
什么意思?
你手机里的 App、你自己写的脚本、第三方 AI 工具——只要它们支持接入 OpenAI 格式的 API,现在都可以把 OpenClaw 设成 endpoint,然后调用 OpenClaw 托管的模型。
OpenClaw 帮你管理模型配置、密钥、流量控制、上下文管理……你只需要把它当一个标准的 AI 后端来用。
这不是加了一个功能,这是改变了 OpenClaw 的定位。
拿 Cursor 举例,你就懂了
最直接的好处,拿 Cursor 来说明。
Cursor 现在支持接入自定义模型 provider。但它只认 OpenAI 格式的 API。
以前你想让 Cursor 用 Claude,你得走 Anthropic 的官方 API,或者找第三方兼容层。过程麻烦,还容易出配置问题。
现在,OpenClaw 可以托管 Claude 的调用——你把 OpenClaw 的 Gateway URL 配进 Cursor,Cursor 会去调 `/v1/models` 拿到可用模型列表,然后用户就能在 Cursor 里选 Claude、GPT、Qwen,任何 OpenClaw 支持的模型。
一个入口,调用所有模型。
这对同时用多个模型的开发者来说,是实实在在的效率提升。
再说 RAG——一个被低估的场景
RAG(检索增强生成)是什么,简单说就是:让 AI 回答问题之前,先从你的文档库里找相关材料,一起喂给它。
做 RAG 系统,需要两个能力:
❶ Embedding 模型,把文字变成向量
❷ LLM,把问题和向量检索结果合成答案
Embedding 一直是 RAG 链路上最容易踩坑的一环——要么自己部署模型,要么买第三方服务,要么跟 LLM 提供商捆绑买套餐。
OpenClaw 开放 `/v1/embeddings` 之后,这条链路变简单了:
开发者可以把自己的 RAG pipeline 接进来,让 OpenClaw 统一托管 embedding 和 LLM 调用。
不需要额外部署,不需要多套密钥管理。
一个 Gateway,两个能力。
Skills 终于有了一键安装
说完大功能,说一个体验层面的重要改进——Skills 的一键安装。
这次更新里,BunsDev 提交了一个很大的 PR(#53411),给 OpenClaw 打包的所有 Skills 加了元数据和安装配方。
受影响的有这些 Skills:
🔧 coding-agent— 运行 Codex/Claude Code 等编码 Agent
🔧 gh-issues— GitHub Issues 管理
🔧 openai-whisper-api— 语音转文字
🔧 session-logs— 会话日志管理
🔧 tmux— 终端会话控制
🔧 trello— Trello 看板集成
🔧 weather— 天气查询
之前如果你的 Skill 缺依赖,OpenClaw 会显示"missing",然后你得自己去查文档、装包、配置环境。
现在:
✅ CLI 提示"needs setup"(措辞更友好)
✅ 显示哪里需要 API key、怎么获取、怎么保存
✅ Control UI 里 Skills 页面加了状态过滤标签:All / Ready / Needs Setup / Disabled
这是典型的"最后一公里"体验优化。不性感,但很实用。
Teams 深度集成:企业用户的新入口
另一个值得单独说一说的更新,是 Microsoft Teams 的 SDK 迁移。
OpenClaw 这次把 Teams 集成从第三方库迁移到了微软官方 Teams SDK,同时加入了一整套 AI Agent UX 最佳实践:
💬 流式 1:1 回复(typing 一边输出一边显示)
📋 欢迎卡片 + 提示词启动器(新人点进来就知道怎么用)
⭐ 反馈/反思机制
🔔 状态更新通知
⌨️ Typing indicator(打字中提示)
🤖 原生 AI 标签
这些功能加起来,意味着 OpenClaw 在 Teams 里的体验终于像了一个正经的 AI 助手,而不是一个简陋的聊天机器人。
对于企业用户来说,这个意义很大。
Teams 是很多公司的内部协作工具。如果 OpenClaw 能无缝接入 Teams,让团队成员用自然语言调 AI 能力——查代码、问文档、触发自动化流程——这比让所有人装独立 App 门槛低得多。
安全修复:mediaUrl 别名绕过
最后提一个不应该被忽视的修复。
Security/sandbox media dispatch: close the mediaUrl/fileUrl alias bypass so outbound tool and message actions cannot escape media-root restrictions.
翻译一下:之前 outbound 的工具和消息操作,可以通过 `mediaUrl` / `fileUrl` 别名绕过 media-root 的访问限制,存在沙箱逃逸风险。
这个漏洞被修复了。
如果你在用 OpenClaw 的沙箱模式(`workspaceOnly` 或更严格的 fs policy),强烈建议升级到这个版本。
安全漏洞这种东西,不是"没出事就不用管"的逻辑。出了事就是大事。
这次版本的完整图谱
把这次更新整理一下:
我的判断
这次版本,表面看是"加了几个 API 端点 + 修了一堆 bug",实际上透露出一个清晰的战略方向:
OpenClaw 不再只是一个 AI 聊天工具了。
它的定位正在变成:一个标准化的 AI 网关,既能当用户的前端(聊天界面、Teams、Slack、Discord),也能当开发者的后端(OpenAI 兼容 API、RAG 接入、第三方客户端)。
这意味着什么?
意味着你今天装的 OpenClaw,可能明天就会成为你其他 AI 工具的"中转站"。你配的模型、养的 agent、搭的工作流,不只服务 OpenClaw 自己的聊天界面,而是可以开放给整个开发环境里所有支持 OpenAI 格式的工具。
这是从"工具"到"平台"的跨越。
当然,这个跨越也带来了新的问题:当 OpenClaw 变成网关,它的安全边界怎么划?接入的客户端多了,怎么做权限管理?这些问题还没有完整答案,但方向已经摆在那了。
这次更新,值得升级。命令在下面:
你觉得 OpenClaw 变成 AI 网关这个方向对不对?第三方接入会带来更多可能性,还是更多安全风险?评论区聊聊。
夜雨聆风