一次“看似合理”的优化,让整个 Agent 直接罢工。
一、事情是怎么开始的?
💡 让 Agent 自己优化 token 消耗
👉 帮我优化 token 使用,减少不必要的上下文
二、系统直接崩了
Agent failed before reply:Model context window too small (8000 tokens). Minimum is 16000.
🧠 AI 把自己的“脑容量”砍了一半,直接失去思考能力
三、问题本质是什么?
👉 OpenClaw 需要至少 16000 tokens 才能正常运行
"contextWindow": 8000🔍 OpenClaw 的上下文结构(很关键)
❗ 结论
四、为什么 AI 会“优化翻车”?
🤖 AI 会做“局部最优”,但不理解系统约束
五、我是怎么排查出来的?
grep -r "8000" ~/.openclaw六、真正需要改的地方
~/.openclaw/openclaw.json"contextWindow": 32000~/.openclaw/agents/main/agent/models.json"contextWindow": 32000⚠️ 注意
👉 这两个地方必须同时改,否则还是会报错
七、还有一个“隐形坑”(很多人不知道)
💣 session 缓存还在用旧配置
~/.openclaw/agents/main/sessions/rm -rf ~/.openclaw/agents/main/sessions/*八、最终恢复步骤(建议收藏)
1 修改配置
vim ~/.openclaw/openclaw.jsonvim ~/.openclaw/agents/main/agent/models.json
改成
"contextWindow": 320002 清 session
rm -rf ~/.openclaw/agents/main/sessions/*3 重启
pkill -f openclawopenclaw gateway run
🦞 我让龙虾减肥,结果它把脑子切掉了
夜雨聆风