用 OpenClaw 跑本地大模型:Gemma 4 接入实战
OpenClaw + Ollama + Gemma 4:零成本、纯本地、私密安全的 AI 助手搭建笔记
最近在折腾本地大模型,踩了一圈坑之后发现一套组合拳很顺:OpenClaw 做 AI 助手框架,Ollama 做模型运行引擎,Gemma 4 做大脑。三个都是开源免费的,搭起来完全免费,数据不出本机,隐私零泄露。
记录一下完整搭这套系统的过程,给有同样需求的朋友做个参考。
为什么选这套组合
搞 AI 助手,Cloudflare Worker + AI 的方案我之前在用,效果不错。但 cloudflare 有调用额度限制,模型选项也不够灵活,有时候想跑个本地模型跑不了。
后来切到 OpenClaw,发现这框架有几个明显优势:
- 支持自定义模型接入
:只要是 OpenAI 兼容接口的模型,Ollama 可以,本地跑的各种开源模型也可以 - 完全本地运行
:不用连外网,数据在自己机器上,敏感信息处理场景特别适合 - 扩展能力强
:文件操作、网页抓取、代码执行,能做的事情比想象中多 - 跨平台支持
:Mac、Windows、Linux 都能跑
第一步:安装 OpenClaw
OpenClaw 的安装方式有好几种,最简单的是通过官方包管理器装。
Mac 或 Linux 终端里执行:
curl -fsSL https://get.openclaw.ai | sh
Windows 用户直接去官网 openclaw.ai 下载安装包,双击运行,一路下一步即可。
安装完成后,终端里运行:
openclaw --version
看到版本号输出,说明安装没问题。
第二步:安装 Ollama
OpenClaw 本身只是个框架,运行模型需要引擎,这里选 Ollama——轻量、稳定、模型库丰富。
Mac:
brew install ollama
Windows:去 ollama.com 下载安装包,双击安装。
验证安装:
ollama --version
第三步:部署 Gemma 4
Ollama 装好后,拉取 Gemma 4 模型。Gemma 4 推出了好几个规格,建议根据内存来选:
|
|
|
|
|
|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
以 2B 为例,一条命令搞定:
ollama pull gemma4:2b
拉取完成后,用命令验证模型是否可用:
ollama run gemma4:2b "你好,请介绍一下你自己"
能正常回复就说明模型运行没问题了。输入 /bye 退出。
第四步:配置 OpenClaw 连接本地模型
现在 Ollama 在本机跑着,OpenClaw 要通过它的接口来调用。
启动 Ollama 服务
确保 Ollama 在后台运行,暴露接口:
ollama serve
这个窗口保持开着。Ollama 默认在 http://127.0.0.1:11434 提供服务。
配置 OpenClaw
OpenClaw 的配置文件在 ~/.openclaw/config.json(Mac/Linux)或 C:\Users\你的用户名.openclaw\config.json(Windows)。
用编辑器打开,添加一个自定义模型条目:
{ "models": [ { "name": "gemma4-local", "type": "openai", "endpoint": "http://127.0.0.1:11434/v1", "api_key": "ollama", "model_id": "gemma4:2b" } ]}
保存配置文件后,重启 OpenClaw:
openclaw restart
验证是否连通
在 OpenClaw 对话窗口里,切换到 gemma4-local 模型,发一条消息测试。能正常回复,说明整个链路通了。
这套方案用下来感受如何
优点很明显:
-
完全免费:Ollama 开源、Gemma 4 开源、OpenClaw 开源,一分钱不用花 -
数据安全:所有对话在本地处理,适合处理公司内部数据、代码、技术文档 -
响应速度快:本机调用,省去网络延迟,速度比调用远程 API 更快 -
可定制:想换哪个模型改配置就行,随时切换
局限性也要说清楚:
-
Gemma 4 2B 版本能力有限,复杂推理、长篇写作不如 GPT-4o 或 Claude 3.5 -
需要一定配置,内存小于 8GB 的机器跑起来会比较吃力 -
不是开箱即用,需要手动配置,适合有技术基础的用户
典型适用场景
-
企业内部文档问答,敏感数据不方便上云 -
本地技术文档处理,不依赖网络 -
开发人员日常辅助编程,代码审查 -
私有知识库问答,私有数据不出内网
常见问题
Q:连接报 404 错误?检查 endpoint 地址是否写对,结尾有没有带 /v1,Ollama 服务是否在运行。
Q:模型回复很慢?确认电脑内存够用,内存不足建议换 2B 版本,或关闭其他占用内存的程序。
Q:OpenClaw 找不到配置项?检查 config.json 格式是否正确,JSON 不支持注释,删除文件里的注释行。
Q:想换其他模型怎么办?在 Ollama 里先拉取目标模型(如 ollama pull llama3),然后在 OpenClaw 配置里改 model_id 即可。
这套系统搭好之后,一个完全本地运行、私密安全、零成本的 AI 助手就到位了。适合对数据安全有要求、或者想长期省掉 API 费用的朋友。
有问题欢迎留言交流。
夜雨聆风