龙虾(OpenClaw)折腾记(一)
龙虾(OpenClaw)折腾记(一)
🌈 📝 本文记录 OpenClaw 本地 LLM 配置踩坑经验,帮助遇到类似问题的朋友。
本地 LLM contextWindow 小心配,随波逐流爆显存
OpenClaw 调用模型的上下文窗口(contextWindow)配置很重要,默认值是 64000,网上说最大可以调整到 256000。
🐛 问题
对于一般的线上大模型来说,256K 的上下文长度是没问题的。但对笔者使用的本地 qwen3.5:27b 模型来说,连默认的 64K 都不能正常支持,实际表现为:
-
❌ 已读不回 -
❌ 超时报错
这是因为笔者的显卡只有 22G 显存,加载模型后剩余空间不足以处理 32K 以上的上下文数据。
✅ 解决
将 models.providers.ollama.models[0].contextWindow(qwen3.5:27b 是 ollama 模型列表中第一个)调整为 32000。
# 配置示例
contextWindow: 32000
📊 实测结果
只要不是执行诸如 Web search 等大型任务,都能正常完成!
更多 OpenClaw 配置经验分享中…
夜雨聆风