乐于分享
好东西不私藏

龙虾(OpenClaw)折腾记(一)

龙虾(OpenClaw)折腾记(一)

龙虾(OpenClaw)折腾记(一)

🌈

📝 本文记录 OpenClaw 本地 LLM 配置踩坑经验,帮助遇到类似问题的朋友。

本地 LLM contextWindow 小心配,随波逐流爆显存

OpenClaw 调用模型的上下文窗口(contextWindow)配置很重要,默认值是 64000,网上说最大可以调整到 256000

🐛 问题

对于一般的线上大模型来说,256K 的上下文长度是没问题的。但对笔者使用的本地 qwen3.5:27b 模型来说,连默认的 64K 都不能正常支持,实际表现为:

  • ❌ 已读不回
  • ❌ 超时报错

这是因为笔者的显卡只有 22G 显存,加载模型后剩余空间不足以处理 32K 以上的上下文数据。

✅ 解决

models.providers.ollama.models[0].contextWindow(qwen3.5:27b 是 ollama 模型列表中第一个)调整为 32000

# 配置示例
contextWindow: 32000

📊 实测结果

只要不是执行诸如 Web search 等大型任务,都能正常完成!


更多 OpenClaw 配置经验分享中…