乐于分享
好东西不私藏

OpenClaw 踩坑实录:AI 把自己优化死了

OpenClaw 踩坑实录:AI 把自己优化死了
🚨 我让 AI 优化 token,结果把 OpenClaw 搞崩了…

一次“看似合理”的优化,让整个 Agent 直接罢工。


一、事情是怎么开始的?

最近在折腾 OpenClaw,跑在阿里云服务器上,一切都挺顺。
为了降低成本,我动了一个念头:

💡 让 Agent 自己优化 token 消耗

听起来很合理对吧?
减少上下文
降低调用成本
提高响应速度
于是我直接对“龙虾”说了一句:

👉 帮我优化 token 使用,减少不必要的上下文

结果,它真的“优化”了。
但没想到的是——

二、系统直接崩了

下一次再问问题时,控制台直接报错:
Agent failed before reply: Model context window too small (8000 tokens). Minimum is 16000.
然后你会发现:
❌ 完全没有回复
❌ Agent 不再执行
❌ 页面像“卡死”一样
简单说一句:

🧠 AI 把自己的“脑容量”砍了一半,直接失去思考能力


三、问题本质是什么?

一句话解释:

👉 OpenClaw 需要至少 16000 tokens 才能正常运行

但 Agent 帮我“优化”成了:
"contextWindow": 8000
问题来了👇

🔍 OpenClaw 的上下文结构(很关键)

它不是普通聊天,而是这样拼的:
System Prompt(系统指令)
+ Tools(工具描述)
+ Memory(记忆)
+ 历史对话
+ 当前输入
实际情况:
模块
Token
System Prompt
~4000
Tools
~6000
Memory
~2000
用户输入
~1000
👉 总计轻松超过10000+

❗ 结论

8000 tokens ≠ 不够用
8000 tokens = 根本跑不起来

四、为什么 AI 会“优化翻车”?

这其实是一个很典型的问题:

🤖 AI 会做“局部最优”,但不理解系统约束

它的逻辑是:
减少 context → 降低 token → 更省钱 ✅
但它不知道:
低于 16000 → 系统直接挂 ❌

五、我是怎么排查出来的?

第一步:上服务器直接搜
grep -r "8000" ~/.openclaw
结果一堆:
openclaw.json
models.json
session 文件
memory 文件
但关键只有两个👇

六、真正需要改的地方

✅ 1. 全局配置
~/.openclaw/openclaw.json
修改:
"contextWindow": 32000

✅ 2. 模型配置
~/.openclaw/agents/main/agent/models.json
同样修改:
"contextWindow": 32000

⚠️ 注意

👉 这两个地方必须同时改,否则还是会报错


七、还有一个“隐形坑”(很多人不知道)

就算你改完配置,可能还是不行。
原因是👇

💣 session 缓存还在用旧配置

路径:
~/.openclaw/agents/main/sessions/

解决方案(关键一步)
rm -rf ~/.openclaw/agents/main/sessions/*

这一步会发生什么?
✅ 清空聊天记录
✅ 清空上下文
✅ 相当于“新建聊天”
但不会影响:
❌ 程序
❌ 模型
❌ 配置

八、最终恢复步骤(建议收藏)

1 修改配置

vim ~/.openclaw/openclaw.jsonvim ~/.openclaw/agents/main/agent/models.json

改成

"contextWindow": 32000

2 清 session

rm -rf ~/.openclaw/agents/main/sessions/*

3 重启

pkill -f openclawopenclaw gateway run

最后
这次问题一句话总结:

🦞 我让龙虾减肥,结果它把脑子切掉了