OpenClaw深夜更新:GPT-Image2终于能白嫖了,还有一堆重磅新功能
就在昨天(4月24日),OpenClaw悄悄推送了v2026.4.23版本。
你以为只是个常规更新?不,这次有点不一样。
我研究了一下更新日志,发现几个真正能改变使用体验的功能——特别是对我们这种不想花钱买API Key的人来说。
1. GPT-Image-2:不用API Key也能用了
这是最让我兴奋的一条。
以前想用OpenAI的图像生成模型,你得老老实实充钱开API Key。但现在,OpenClaw接入了Codex OAuth——说人话就是,你用OpenAI账号登录,就能直接调用GPT-image-2,不用花一分钱。
官方的说法是:openai/gpt-image-2 现在走Codex OAuth通道,不需要OPENAI_API_KEY环境变量了。
这对谁有用?
○ 想尝鲜GPT-Image-2但不想充值的人
○ 已经有OpenAI账号的用户(大部分人其实都有ChatGPT账号)
○ 做AI图片自动化工作流的个人开发者
之前我为了生图充过不少冤枉钱,现在看到这个改动只能说——真香。
2. OpenRouter也能生图了:又省一笔
不只OpenAI,OpenRouter那边也打通了。
之前OpenRouter的图像模型(比如那些开源的SD接口)一直没法在OpenClaw里直接调,这次更新把image_generate工具接上了,配置好OPENROUTER_API_KEY就能用。
相当于你多了一个免费/低价图像生成的渠道。
OpenRouter本身就走的是聚合路线,模型多、价格透明,对于用量不大的个人用户来说是个不错的备选。
3. xAI全功能支持:这下Grok全家桶齐了
如果说前两条是”省钱”,那xAI的支持就是”解锁新玩具”。
这次更新把xAI的图像生成、TTS(语音合成)、STT(语音转文字)全部接进来了:
○ 图像:grok-imagine-image / grok-imagine-image-pro
○ TTS:6种语音,MP3/WAV/PCM/G.711格式
○ STT:grok-stt音频转录 + Voice Call流式转录
另外,Deepgram、ElevenLabs、Mistral的语音转录也支持了——做播客、做视频字幕的门槛又低了一截。
Grok模型最近在海外热度不低,特别是图像生成和语音方向。这次接入后,OpenClaw用户不用换平台就能直接用上。
4. 子Agent可以”继承”上下文了
这是一条技术向的更新,但对实际使用影响很大。
之前的子Agent每次启动都是”干净 slate”,父级会话里聊过的内容它看不到。这次新增了forked context模式——子Agent可以选择继承父级的对话上下文,不用从头开始。
有什么用?
比如你让主Agent分析一篇文章,然后派一个子Agent专门写摘要——以前子Agent得把文章内容再传一遍,现在可以直接”继承”理解过程,省token也省事。
官方说这是”可选”的,默认为隔离会话,所以老用户不会感觉到任何变化,但需要的人有了更好的选择。
5. 工具超时可以单独设置了
以前图像、视频、音乐生成工具的超时是全局统一的,有时候生成一张图要等很久但不知道该卡多久。
现在支持per-call timeoutMs了——你可以告诉系统”这张图我愿意等60秒”,不用改全局配置。
对做批量自动化的人来说,这个改动很实用。
6. Pi包更新到0.70.0
最后这条是底层更新,但对生态影响不小。
Pi是OpenClaw的模型目录包,这次更新到0.70.0,带来了GPT-5.5的目录元数据。对于用OpenClaw跑各种模型集成的用户来说,模型选择会更丰富。
总结
这次更新没有”革命性”的大功能,但每一条都很实用:
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
OpenClaw最近的迭代速度明显加快了——v2026.4.23是4月24日发的,v2026.4.22是23号发的,基本保持着每天一个小版本的节奏。
如果你还没用过OpenClaw,现在可能是个不错的入局时机——很多坑都被社区填得差不多了,文档也越来越完善。
参考资料
○ OpenClaw v2026.4.23 Release Notes(2026-04-24)
夜雨聆风