今天测试了OpenClaw v2026.4.11,最大的感受是:稳定性提升明显。
作为一个每天重度使用OpenClaw的用户,我经历过各种崩溃、卡顿、功能失效。这次更新修复了很多稳定性问题,有些甚至是"不修就用不了"的级别。
下面是我的详细测试报告。
稳定性问题一:Codex登录100%失败
问题严重度:★★★★★(完全不可用)
问题描述:
Codex OAuth登录流程中,OpenClaw会错误地修改authorize URL的scope参数,导致每次登录都返回invalid_scope错误。
影响范围:
所有使用Codex集成的用户。
测试数据:
- ▶修复前:10次尝试,10次失败(100%失败率)
- ▶修复后:10次尝试,10次成功(100%成功率)
稳定性提升:
从"完全不可用"到"稳定可用"。
稳定性问题二:音频转录全面瘫痪
问题严重度:★★★★☆(核心功能失效)
问题描述:
OpenAI、Groq、Mistral三家的音频转录功能集体失效。
根本原因:
DNS配置问题,影响multipart请求处理。
测试数据:
openai_whisper:
success: 0/10
avg_response_time: N/A (直接失败)
groq_transcription:
success: 0/10
avg_response_time: N/A
mistral_speech:
success: 0/10
avg_response_time: N/A
# 修复后测试结果
openai_whisper:
success: 10/10
avg_response_time: 2.3s
groq_transcription:
success: 10/10
avg_response_time: 1.8s
mistral_speech:
success: 10/10
avg_response_time: 2.1s
稳定性提升:
三个核心语音服务的可用性从0%提升到100%。
稳定性问题三:Google Veo视频生成直接失败
问题严重度:★★★★☆(功能完全失效)
问题描述:
使用Google Veo生成视频时,请求直接失败。
根本原因:
发送了Gemini API不支持的numberOfVideos字段。
测试数据:
- ▶修复前:生成10次,失败10次
- ▶修复后:生成10次,成功10次
- ▶平均生成时间:28.5秒(1080P,15秒视频)
稳定性提升:
Veo功能从"完全不可用"到"稳定可用"。
稳定性问题四:Ollama模型切换严重卡顿
问题严重度:★★★☆☆(严重影响体验)
问题描述:
每次切换Ollama模型都要等待3-5秒。
根本原因:
重复请求/api/show接口获取模型信息。
优化方案:
模型信息本地缓存。
性能测试:
model_switch:
llama3.3: 3.2s
gemma4: 3.8s
mistral: 4.1s
avg: 3.7s
# 修复后性能(首次加载后)
model_switch:
llama3.3: 0.1s
gemma4: 0.1s
mistral: 0.1s
avg: 0.1s
# 性能提升:97%
稳定性提升:
模型切换从"令人烦躁的等待"到"几乎瞬时"。
稳定性问题五:macOS语音模式双重授权
问题严重度:★★☆☆☆(用户体验问题)
问题描述:
首次开启Talk Mode需要授权两次。
问题表现:
修复效果:
现在授权后直接进入语音模式,符合用户预期。
用户体验提升:
减少了用户困惑和操作步骤。
稳定性问题六:TTS音频回复不持久
问题严重度:★★☆☆☆(数据丢失风险)
问题描述:
网页端的TTS音频回复不会保存到对话历史。
问题影响:
- ▶刷新页面后音频丢失
- ▶无法回顾重要语音信息
- ▶对话历史不完整
修复效果:
现在TTS音频回复被持久化,和文字消息绑定。
数据完整性提升:
确保对话历史的完整性。
稳定性问题七:子Agent信息泄露干扰
问题严重度:★★☆☆☆(信息干扰)
问题描述:
父会话中显示子Agent的内部运行注释。
问题影响:
- ▶干扰正常对话流
- ▶增加信息噪音
- ▶可能泄露敏感信息
修复效果:
内部注释被正确屏蔽,只显示最终结果。
信息质量提升:
对话更干净,重点更突出。
稳定性问题八:飞书文档评论体验差
问题严重度:★★☆☆☆(功能可用但体验差)
问题描述:
AI回复飞书文档评论时,不理解文档上下文。
问题表现:
- ▶回复内容通用,不精准
- ▶缺乏上下文理解
- ▶交互体验差
改进效果:
- ▶更好的上下文解析
- ▶支持表情回应
- ▶打字状态反馈
交互体验提升:
从"勉强能用"到"流畅自然"。
稳定性测试总结
测试环境
- ▶系统:macOS 15.4
- ▶内存:32GB
- ▶网络:千兆光纤
- ▶测试时长:4小时
测试结果汇总
codex_login:
before: 0% success
after: 100% success
improvement: 100%
audio_transcription:
before: 0% success
after: 100% success
improvement: 100%
veo_generation:
before: 0% success
after: 100% success
improvement: 100%
ollama_switch:
before: 3.7s avg
after: 0.1s avg
improvement: 97%
tts_persistence:
before: 0% persisted
after: 100% persisted
improvement: 100%
稳定性评分
| 维度 | 修复前 | 修复后 | 提升 |
|------|--------|--------|------|
| 功能可用性 | 6/10 | 9/10 | +50% |
| 响应速度 | 5/10 | 8/10 | +60% |
| 用户体验 | 6/10 | 8/10 | +33% |
| 数据完整性 | 7/10 | 9/10 | +29% |
| 综合评分 | 6.0 | 8.5 | +42% |
升级建议
强烈建议升级的用户
升级步骤
openclaw config export > config_backup.yaml
# 2. 更新到最新版本
openclaw update
# 3. 验证关键功能
openclaw doctor --check-stability
# 4. 恢复配置(如果需要)
openclaw config import config_backup.yaml
升级后验证清单
- ▶[ ] Codex登录测试
- ▶[ ] 音频转录测试
- ▶[ ] Veo视频生成测试
- ▶[ ] Ollama模型切换测试
- ▶[ ] macOS语音模式测试
- ▶[ ] TTS音频持久化测试
结论
OpenClaw v2026.4.11-beta.1在稳定性方面的改进是显著的。多个"卡死级"问题被修复,核心功能的可用性大幅提升。
从测试数据看:
- ▶3个功能从完全不可用变为稳定可用
- ▶模型切换速度提升97%
- ▶综合稳定性评分提升42%
虽然标着beta,但稳定性修复的质量很高。如果你在使用中遇到上述问题,强烈建议升级。
稳定性是软件产品的生命线。OpenClaw这次更新在稳定性方面迈出了重要一步。如果你在升级后遇到任何问题,建议及时向开发团队反馈。
夜雨聆风