乐于分享
好东西不私藏

OpenClaw深夜更新:GPT-Image2终于能白嫖了,还有一堆重磅新功能

OpenClaw深夜更新:GPT-Image2终于能白嫖了,还有一堆重磅新功能

就在昨天(4月24日),OpenClaw悄悄推送了v2026.4.23版本。

你以为只是个常规更新?不,这次有点不一样。

我研究了一下更新日志,发现几个真正能改变使用体验的功能——特别是对我们这种不想花钱买API Key的人来说。


1. GPT-Image-2:不用API Key也能用了

这是最让我兴奋的一条。

以前想用OpenAI的图像生成模型,你得老老实实充钱开API Key。但现在,OpenClaw接入了Codex OAuth——说人话就是,你用OpenAI账号登录,就能直接调用GPT-image-2,不用花一分钱

官方的说法是:openai/gpt-image-2 现在走Codex OAuth通道,不需要OPENAI_API_KEY环境变量了。

这对谁有用?

○  想尝鲜GPT-Image-2但不想充值的人

○  已经有OpenAI账号的用户(大部分人其实都有ChatGPT账号)

○  做AI图片自动化工作流的个人开发者

之前我为了生图充过不少冤枉钱,现在看到这个改动只能说——真香。


2. OpenRouter也能生图了:又省一笔

不只OpenAI,OpenRouter那边也打通了。

之前OpenRouter的图像模型(比如那些开源的SD接口)一直没法在OpenClaw里直接调,这次更新把image_generate工具接上了,配置好OPENROUTER_API_KEY就能用。

相当于你多了一个免费/低价图像生成的渠道

OpenRouter本身就走的是聚合路线,模型多、价格透明,对于用量不大的个人用户来说是个不错的备选。


3. xAI全功能支持:这下Grok全家桶齐了

如果说前两条是”省钱”,那xAI的支持就是”解锁新玩具”。

这次更新把xAI的图像生成、TTS(语音合成)、STT(语音转文字)全部接进来了:

○  图像:grok-imagine-image / grok-imagine-image-pro

○  TTS:6种语音,MP3/WAV/PCM/G.711格式

○  STT:grok-stt音频转录 + Voice Call流式转录

另外,Deepgram、ElevenLabs、Mistral的语音转录也支持了——做播客、做视频字幕的门槛又低了一截。

Grok模型最近在海外热度不低,特别是图像生成和语音方向。这次接入后,OpenClaw用户不用换平台就能直接用上。


4. 子Agent可以”继承”上下文了

这是一条技术向的更新,但对实际使用影响很大。

之前的子Agent每次启动都是”干净 slate”,父级会话里聊过的内容它看不到。这次新增了forked context模式——子Agent可以选择继承父级的对话上下文,不用从头开始。

有什么用?

比如你让主Agent分析一篇文章,然后派一个子Agent专门写摘要——以前子Agent得把文章内容再传一遍,现在可以直接”继承”理解过程,省token也省事。

官方说这是”可选”的,默认为隔离会话,所以老用户不会感觉到任何变化,但需要的人有了更好的选择。


5. 工具超时可以单独设置了

以前图像、视频、音乐生成工具的超时是全局统一的,有时候生成一张图要等很久但不知道该卡多久。

现在支持per-call timeoutMs了——你可以告诉系统”这张图我愿意等60秒”,不用改全局配置。

对做批量自动化的人来说,这个改动很实用。


6. Pi包更新到0.70.0

最后这条是底层更新,但对生态影响不小。

Pi是OpenClaw的模型目录包,这次更新到0.70.0,带来了GPT-5.5的目录元数据。对于用OpenClaw跑各种模型集成的用户来说,模型选择会更丰富。


总结

这次更新没有”革命性”的大功能,但每一条都很实用:

更新项
受益人群
Codex OAuth白嫖GPT-Image2
不想充值API的普通用户
OpenRouter图像生成
多平台图像需求用户
xAI全功能支持
语音/图像/Grok模型用户
子Agent上下文共享
工作流自动化用户
per-call超时控制
批量生成用户

OpenClaw最近的迭代速度明显加快了——v2026.4.23是4月24日发的,v2026.4.22是23号发的,基本保持着每天一个小版本的节奏。

如果你还没用过OpenClaw,现在可能是个不错的入局时机——很多坑都被社区填得差不多了,文档也越来越完善。


参考资料

○  OpenClaw v2026.4.23 Release Notes(2026-04-24)