THE BREAKING WATCH
快讯追踪
2026 年 4 月 12 日 · 星期六
热点复盘 · 影响判断 · 关键时间线
FLASHPOINT · 焦点
OpenClaw一周连更三版:吃进ChatGPT记忆、内置Codex模型、AI终于会自己记事了
从抢用户到抢模型,这个开源AI Agent的胃口越来越大了
4月7号到11号,满打满算也就五天的工夫,OpenClaw一口气推出来了v2026.4.7、v2026.4.10以及v2026.4.11三个正式版本,顺带还搭上了好几个beta版。更新节奏之快直追初创团队冲刺期的劲头,但OpenClaw可不是什么几个人凑在一起的小作坊——它已经手握着35万颗星标了。这不是一帮人在闷头猛冲,而是一个巨型开源项目正在加速跑起来。这三个版本里面其实藏着三记狠招:原生接入了OpenAI Codex模型、AI能够自动记住你的偏好、同时还能一键导入ChatGPT的数据。每一个单独拎出来都算得上是大动作,搁在一块儿看那就是一套组合拳。
内置Codex:OpenClaw原生跑起OpenAI模型了
v2026.4.10里头最大的变动莫过于:OpenClaw正式把OpenAI Codex给纳入了内置Provider。以前用OpenClaw的时候,底层模型基本上是绑死在Claude上的——想换成GPT还得自己跑去折腾API对接那些事儿。现在情况就不一样了。装好以后,codex/gpt-*模型走的是Codex官方认证通道,自带线程管理、模型发现以及上下文压缩;openai/gpt-*则照旧走原来的OpenAI Provider路径,两条线互不干扰。说白了就是:Claude和GPT两条线同时开着,随你切换。对开发者来说,这省下了大把配置时间——不再需要手动对接OpenAI的OAuth,Codex通道已经帮你管好了。而站在OpenClaw项目本身的角度看,更值得玩味的一点是:一个开源项目主动把竞品模型的官方通道给内置进去了,这种格局确实不常见。
Active Memory:AI终于不用你提醒了
同样出现在v2026.4.10里,一个叫做Active Memory的新插件悄然上线了,不过它的影响或许比Codex更深远。以往的AI记忆系统有一个通病:被动。你不说"记住这个",它就不记;你不说"搜索记忆",它就不查。等你想到要查的时候,对话的节奏早就断了。Active Memory的逻辑完全反过来:在你发消息和AI回复之间,它会偷偷插一步——一个专用的记忆子Agent,花几百毫秒扫一遍你的历史偏好以及上下文,把相关的信息给塞进系统提示词里。你完全无感,但AI的回复突然就"懂你了"。官方文档里给了一个例子:你随口问一句"我该点什么鸡翅",AI直接回答"柠檬胡椒配蓝芝士酱"——因为它记住了你之前提过的口味。配置也不复杂,往openclaw.json里贴一段配置就行:
openclaw.json里启用Active Memory:
openclaw gateway重启网关就能生效。想调试的话,对话里输入/verbose on,能看见记忆检索花了多少毫秒、捞了多少内容出来。
ChatGPT一键导入:抢人,就是这么直白
v2026.4.11最狠的一刀:ChatGPT数据导入。不是手动搬运那种,而是Dreaming模块原生就支持吃进ChatGPT的导出数据。导入以后,Dreaming里多出了两个新标签页——"Imported Insights"也就是导入洞察,以及"Memory Palace"也就是记忆宫殿。前者把你ChatGPT里的对话编译成结构化知识卡片,后者借助日记加时间线的形式来呈现完整的源对话。翻译成人话就是:你在ChatGPT里攒了两年的聊天记录、个人偏好以及项目上下文,一键就能搬到OpenClaw里,变成它"懂事"的底子。迁移成本从"重新教一遍"直接降到了"点一下导入"。这招的杀伤力其实不在技术层面,而是在产品策略上。以前从ChatGPT换到任何替代品,最大的心理门槛就是"我得从头来"。现在这个门槛被推平了。
macOS本地语音:你的Mac自己跟你聊
还有一个容易被忽视的更新:v2026.4.10给macOS的Talk Mode加入了实验性的MLX语音引擎。这意味着什么呢?以前语音交互得把音频送到云端去进行处理,现在借助苹果自家的MLX框架,在Mac本地就能跑语音识别以及合成了。不需要联网、不传数据、也不走第三方API。隐私党可以鼓掌了。目前还处于实验阶段,需要手动启用provider,但方向已经很明确了:OpenClaw正在往"完全本地化AI助手"的路上走。
openclaw infer:一条命令调所有模型
v2026.4.7引入的新CLI命令openclaw infer,是给命令行党准备的利器。以前想测试不同模型的输出,得改配置、重启网关。现在一条命令就能搞定:模型推理、图片生成、音乐生成、视频生成、网页抓取以及文本嵌入——全部走infer子命令,自动路由到有权限的Provider。还自带fallback机制:你请求的Provider要是挂了,它自动去找下一个能用的,参数还会自动映射到新Provider所支持的格式。CLI党的效率直接翻倍。
安全加固:这次动了真格
v2026.4.10的Fix列表里,安全相关的修复占据了半壁江山。SSRF防护全面进行了收紧——浏览器沙箱导航默认进行了阻断、主机名白名单、子框架隔离、CDP发现限制以及Docker源IP范围校验。exec预检也加入了host环境变量黑名单、插件安装依赖扫描以及Gmail token脱敏。还有一个细节:per-provider的allowPrivateNetwork配置,让自建端点能够按需进行放行私有网络,并且不会把整条安全防线撕开。要是你是企业用户的话,这版值得马上升级。
💡 这三版放一起看,OpenClaw在下什么棋?
内置Codex——打通模型壁垒,你不换模型我帮你换;Active Memory——补上体验短板,AI不再"每次都像初次见面";ChatGPT导入——铲掉迁移门槛,ChatGPT用户零成本过来。三步连着看,逻辑很清楚了:OpenClaw不再满足于"开源AI Agent里最好用的"这个定位,它在往"不管你从哪来的,到我这就够了"的方向走。35万星的社区基础、a16z领投的资金、一周三版的交付速度——这个项目正在从工具变成平台。
一句话判断
OpenClaw这周的三板斧——接入Codex、自动记忆、导入ChatGPT——不是在堆功能,是在建护城河。它想当的不是"又一个AI Agent",而是你唯一需要的那个。
用了Active Memory的来评论区说说体验,看看是不是真比手动查记忆爽。下期我们来测一测Codex通道以及原生Claude通道的实战差距。
THE BREAKING WATCH · 快讯追踪
第一时间判断影响,不只重复新闻
by AIZ空间 · 2026.04.12
夜雨聆风