OpenClaw 最佳 Ollama 本地模型推荐
在 OpenClaw 框架中选择合适的本地模型至关重要。本文将为你推荐几款在 Ollama 平台上表现最优秀的模型,帮助你根据硬件配置做出最佳选择。
🏆 首推模型:Qwen3 系列 / Qwen3-Coder
为什么最强?
- 工具调用极稳
:几乎不乱调用、不忘参数 - 中文表现顶级
:原生中文优化,理解准确 - Agent 任务突出
:特别适合 OpenClaw 的自动化任务 - 性价比最高
:性能与资源消耗的最佳平衡
推荐版本
拉取命令
ollama pull qwen3-coder:32b # 或更大版本 ollama pull qwen3:72b-instruct-q4_K_M🥈 GLM-4.7-Flash / GLM-4.7 系列
特点
- 30B 级别最强之一
:工具调用非常精准 - 比同级 Qwen 更听话
:很多人反馈更稳定 - 适合 coding + 系统操作任务
:自动化任务表现优秀
缺点
超长对话偶尔会稍迷失(因人而异)
拉取命令
ollama pull glm-4.7-flash🥉 GPT-OSS 系列
特点
- 专为 Agent 任务设计
:工具调用干净 - 推理能力强
:逻辑推理出色 - 20B 版已很稳
:120B 是顶级但吃资源
拉取命令
ollama pull gpt-oss:20b # 或查询最新 tag🔬 DeepSeek-R1 / DeepSeek-Coder-V2
适用场景
- 机器学习与人工智能
:专业领域表现优秀 - 推理和 coding 极强
:代码能力突出 - 工具使用优秀
:适合大量逻辑判断任务
拉取命令
ollama pull deepseek-r1:32b # 或 deepseek-coder 相关变体🦙 Llama 3.3:70b
特点
- 通用性高
:Meta 最新 SOTA 级别 - 工具支持不错
:各种任务都能胜任 - 安全选择
:硬件够强时的稳妥方案
拉取命令
ollama pull llama3.3:70b📊 快速选择表(根据你的硬件)
| 强烈推荐 | |||
💡 实用小技巧(让本地模型更稳定)
1. 温度设置
temperature: 0 或 0.1–0.2避免模型胡思乱想,保持稳定输出。
2. 上下文长度
OpenClaw 经常用超长 prompt,优先选 32k+ 上下文 的模型:
Qwen3:支持优秀 GLM-4.7:支持优秀
3. 工具参数修复
如果工具参数乱掉,检查 ~/.openclaw/workspace/TOOLS.md,部分模型需手动修改关键词:
"cmd" → "command" 等(常见 bug)4. 速度优化
使用量化版本,精度损失小但速度快很多:
q4_K_M / q5_K_M5. 最稳组合
主模型:qwen3-coder:32b 备用模型:glm-4.7-flash双模型切换几乎覆盖所有场景。
🎯 总结
对于 OpenClaw 用户,我们强烈推荐:
- 首选
:Qwen3-Coder:32b - 综合表现最佳 - 备选
:GLM-4.7-Flash - 工具调用精准 - 高端
:Qwen3:72b / Llama3.3:70b - 硬件允许时的顶级选择
选择合适的模型,让你的 OpenClaw 系统发挥最大效能!
本文由 OpenClaw 助手为您整理发布
夜雨聆风