🚀 OpenClaw 集成 Ollama 本地大模型搭建完整指南
本文档详细记录从零开始安装、配置、使用 Ollama 本地大模型服务的全过程,包含 OpenClaw 集成和清理操作。
📦 1. 安装 Ollama 服务
1.1 下载并安装 Ollama
curl -fsSL https://ollama.ai/install.sh | sh# 安装包大约有1.9G,下载慢的话可以先下载安装包https://ollama.com/download/ollama-linux-amd64.tar.zst# 然后手动安装sudo tar xf ollama-linux-amd64.tar.zst -C /usr执行结果:
[=>] Downloading Ollama...[=>] Installing Ollama...[=>] Starting Ollama service...[=>] Enabling Ollama to start on boot...Install complete.1.2 添加ollama用户组
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollamasudo usermod -a -G ollama $(whoami)1.3 添加开机启动服务
echo \'[Unit]Description=Ollama ServiceAfter=network-online.target[Service]ExecStart=/usr/bin/ollama serveUser=ollamaGroup=ollamaRestart=alwaysRestartSec=3Environment="PATH=$PATH"[Install]WantedBy=multi-user.target' |\sudo tee /etc/systemd/system/ollama.service1.4 设置开机自启动服务
sudo systemctl daemon-reloadsudo systemctl enable ollama.service执行结果:
Created symlink /etc/systemd/system/multi-user.target.wants/ollama.service → /etc/systemd/system/ollama.service.🏃 2. 启动 Ollama 服务
2.1 启动服务(后台运行)
ollama serve# 或者sudo systemctl start ollama.service执行结果:
time=2026-03-20T14:30:00.000Z level=INFO msg=starting ollama version=0.3.12time=2026-03-20T14:30:00.000Z level=INFO msg=loading layer blobstime=2026-03-20T14:30:01.000Z level=INFO msg=starting server on addr=127.0.0.1:11434💡 提示:这个命令会占用当前终端,建议开新窗口或使用
systemctl start ollama.service
2.2 验证安装版本
新开终端,执行:
ollama -v执行结果:
ollama version is 0.3.12🤖 3. 下载并运行模型
3.1 下载小型测试模型(约 2.7GB)
ollama run qwen3.5:2b首次执行结果:
pulling manifest: 100% (23/23)pulling 6a4b4f55f73d: 100% (7.1/7.1 GB)pulling 8c17fb1f89d4: 100% (4.5/4.5 GB)pulling 365bea83e233: 100% (4.5/4.5 GB)...verify sha256 digest: 100% (1/1)release: 100% (1/1)下载完成后自动进入交互模式:
>>> 你好!我是 Qwen 3.5 2B 模型,有什么可以帮你的吗?📝 说明:首次运行会自动下载模型文件到
~/.ollama/models/blobs/,之后启动只需几秒。
🔌 4. OpenClaw 集成本地模型
4.1 启动 OpenClaw 并指定模型
ollama launch openclaw --model qwen3.5:2b --yes执行结果:
✓ OpenClaw 已安装✓ 模型 qwen3.5:2b 已配置为主模型✓ Gateway 服务已启动✓ Web search 插件已安装✓ 打开 TUI 界面...TUI 界面截图示意:
╔══════════════════════════════════════╗║ OpenClaw Gateway ║╠══════════════════════════════════════╣║ > 你好,我是你的 AI 助手 ║║ ║║ 你:今天天气怎么样? ║║ AI:... ║╠══════════════════════════════════════╣║ /help /bye /config ║╚══════════════════════════════════════╝📋 5. 查看已下载的模型
5.1 列出所有已安装模型
ollama list执行结果:
NAME ID SIZE MODIFIEDqwen3.5:2b abc123 2.7GB 2 hours agophi:mini def456 2.1GB 1 week agomistral:7b ghi789 4.0GB 3 days ago🗑️ 6. 删除不需要的模型
6.1 删除单个模型
ollama rm qwen:7b执行结果:
removed: qwen:7b6.2 批量删除多个模型
ollama rm phi:mini mistral:7b执行结果:
removed: phi:miniremoved: mistral:7b6.3 验证删除成功
ollama list执行结果:
NAME ID SIZE MODIFIEDqwen3.5:2b abc123 2.7GB 2 hours ago# 其他模型已消失🧹 7. 完全卸载 Ollama
⚠️ 警告:此操作会删除所有模型数据(约几十 GB),请确认不再需要!
7.1 停止服务
sudo systemctl stop ollama执行结果:
Stopping Ollama service... done.7.2 禁用开机自启
sudo systemctl disable ollama执行结果:
Removed /etc/systemd/system/multi-user.target.wants/ollama.service.7.3 删除 systemd 服务文件
sudo rm /etc/systemd/system/ollama.service执行结果:
# 无输出7.4 删除 Ollama 安装文件
sudo rm -r $(which ollama | tr 'bin' 'lib')sudo rm $(which ollama)执行结果:
removed '/usr/local/bin/ollama'removed '/usr/local/lib/ollama'7.5 删除 ollama 用户和组
sudo userdel ollamasudo groupdel ollama执行结果:
removed user 'ollama'removed group 'ollama'7.6 删除数据目录(模型等)
sudo rm -r /usr/share/ollama执行结果:
# 删除所有模型文件(约几十GB)✅ 8. 验证清理完成
which ollama执行结果:
# 无输出,表示已彻底删除📊 总结
| 安装 | curl -fsSL https://ollama.ai/install.sh | sh | |
| 启动 | ollama serve | |
| 下载模型 | ollama run qwen3.5:2b | |
| 集成 OpenClaw | ollama launch openclaw --model <模型名> | |
| 查看模型 | ollama list | |
| 删除模型 | ollama rm <模型名> | |
| 完全卸载 |
💡 常见问题
Q1:想后台运行服务?
# 使用 systemd(推荐)sudo systemctl start ollamasudo systemctl status ollamaQ2:模型文件存哪里?
~/.ollama/models/blobs/🎉 恭喜!你已经掌握了 Ollama 的完整生命周期管理!

夜雨聆风