乐于分享
好东西不私藏

OpenClaw使用Ollama调用本地小模型

OpenClaw使用Ollama调用本地小模型
一、安装Ollama
curl -fsSL https://ollama.com/install.sh | sh
报错了,说连接不上服务器,可能是因为我本地VPN的原因,浏览器都是可以正常打开的,不纠结,使用brew来安装
brew install ollama
安装成功了,但是应该显示未连接上服务
验证是否安装成功,输入
ollama --version
出来版本号了,但是仍提示未连接上Ollama,那么输入命令行启动服务
ollama serve
提示被占用,输入命令行查看当前地址被占用情况
lsof -i :11434
提示其实也是ollama的一个服务占用了,将这个进程杀掉,再启动ollama服务
lsof -ti:11434 | xargs kill -9
ollama serve
服务应该起来了。
二、拉取千问3小模型
接下来使用ollama拉取千问7b的模型到本地,我拉取的时候报错,无法链接,官方应该没有这个文件了,换8b
ollama pull qwen3:8b
左侧是ollama server运行情况,看到可以正常处理命令行操作,拉取成功,问个问题让它回答一下:
ollama run qwen3:8"你好,请做一个自我介绍。"
有回应了,但是真的非常慢,会把自己逗笑,因为我的电脑也比较久了,磁盘马上要占满。
三、配置OpenClaw调用本地小模型
打开~/.openclaw/openclaw.json文件,在providers下面增加ollama配置如下:
"ollama": {        "baseUrl": "http://127.0.0.1:11434/v1",        "apiKey": "ollama-local",        "api": "openai-completions",        "models": [          {            "id": "qwen3-8b-32k",            "name": "Qwen3 8B (Local)",            "reasoning": false,            "input": [              "text"            ],            "cost": {              "input": 0,              "output": 0,              "cacheRead": 0,              "cacheWrite": 0            },            "contextWindow": 32768,            "maxTokens": 32768          }        ]      }
可以手动编辑将该文件默认模型修改为本地:
"agents": {    "defaults": {      "model": {        "primary""ollama/qwen3:8b"      },      ……
也可以使用命令行修改默认模型
openclaw config set agents.defaults.model.primary "ollama/qwen3:8b"
重启OpenClaw网关
openclaw gateway restart
看到控制台输出应该是配置成功了。
但是我在网页上验证,真的巨卡,出不来结果,Mac mini呜呜转,我电脑内存不够用了。。
算是学习了一下吧。