乐于分享
好东西不私藏

用 OpenClaw 跑本地大模型:Gemma 4 接入实战

用 OpenClaw 跑本地大模型:Gemma 4 接入实战

OpenClaw + Ollama + Gemma 4:零成本、纯本地、私密安全的 AI 助手搭建笔记


最近在折腾本地大模型,踩了一圈坑之后发现一套组合拳很顺:OpenClaw 做 AI 助手框架,Ollama 做模型运行引擎,Gemma 4 做大脑。三个都是开源免费的,搭起来完全免费,数据不出本机,隐私零泄露。

记录一下完整搭这套系统的过程,给有同样需求的朋友做个参考。


为什么选这套组合

搞 AI 助手,Cloudflare Worker + AI 的方案我之前在用,效果不错。但 cloudflare 有调用额度限制,模型选项也不够灵活,有时候想跑个本地模型跑不了。

后来切到 OpenClaw,发现这框架有几个明显优势:

  • 支持自定义模型接入
    :只要是 OpenAI 兼容接口的模型,Ollama 可以,本地跑的各种开源模型也可以
  • 完全本地运行
    :不用连外网,数据在自己机器上,敏感信息处理场景特别适合
  • 扩展能力强
    :文件操作、网页抓取、代码执行,能做的事情比想象中多
  • 跨平台支持
    :Mac、Windows、Linux 都能跑

第一步:安装 OpenClaw

OpenClaw 的安装方式有好几种,最简单的是通过官方包管理器装。

Mac 或 Linux 终端里执行:

curl -fsSL https://get.openclaw.ai | sh

Windows 用户直接去官网 openclaw.ai 下载安装包,双击运行,一路下一步即可。

安装完成后,终端里运行:

openclaw --version

看到版本号输出,说明安装没问题。


第二步:安装 Ollama

OpenClaw 本身只是个框架,运行模型需要引擎,这里选 Ollama——轻量、稳定、模型库丰富。

Mac:

brew install ollama

Windows:去 ollama.com 下载安装包,双击安装。

验证安装:

ollama --version

第三步:部署 Gemma 4

Ollama 装好后,拉取 Gemma 4 模型。Gemma 4 推出了好几个规格,建议根据内存来选:

内存容量
建议版本
下载大小
适用场景
8GB 以下
2B
约 7GB
尝鲜、日常轻量任务
16GB
7B 或 12B
约 12-20GB
主力使用,性能均衡
32GB+
27B
约 40GB
效果接近顶级付费模型

以 2B 为例,一条命令搞定:

ollama pull gemma4:2b

拉取完成后,用命令验证模型是否可用:

ollama run gemma4:2b "你好,请介绍一下你自己"

能正常回复就说明模型运行没问题了。输入 /bye 退出。


第四步:配置 OpenClaw 连接本地模型

现在 Ollama 在本机跑着,OpenClaw 要通过它的接口来调用。

启动 Ollama 服务

确保 Ollama 在后台运行,暴露接口:

ollama serve

这个窗口保持开着。Ollama 默认在 http://127.0.0.1:11434 提供服务。

配置 OpenClaw

OpenClaw 的配置文件在 ~/.openclaw/config.json(Mac/Linux)或 C:\Users\你的用户名.openclaw\config.json(Windows)。

用编辑器打开,添加一个自定义模型条目:

{  "models": [    {      "name": "gemma4-local",      "type": "openai",      "endpoint": "http://127.0.0.1:11434/v1",      "api_key": "ollama",      "model_id": "gemma4:2b"    }  ]}

保存配置文件后,重启 OpenClaw:

openclaw restart

验证是否连通

在 OpenClaw 对话窗口里,切换到 gemma4-local 模型,发一条消息测试。能正常回复,说明整个链路通了。


这套方案用下来感受如何

优点很明显:

  • 完全免费:Ollama 开源、Gemma 4 开源、OpenClaw 开源,一分钱不用花
  • 数据安全:所有对话在本地处理,适合处理公司内部数据、代码、技术文档
  • 响应速度快:本机调用,省去网络延迟,速度比调用远程 API 更快
  • 可定制:想换哪个模型改配置就行,随时切换

局限性也要说清楚:

  • Gemma 4 2B 版本能力有限,复杂推理、长篇写作不如 GPT-4o 或 Claude 3.5
  • 需要一定配置,内存小于 8GB 的机器跑起来会比较吃力
  • 不是开箱即用,需要手动配置,适合有技术基础的用户

典型适用场景

  • 企业内部文档问答,敏感数据不方便上云
  • 本地技术文档处理,不依赖网络
  • 开发人员日常辅助编程,代码审查
  • 私有知识库问答,私有数据不出内网

常见问题

Q:连接报 404 错误?检查 endpoint 地址是否写对,结尾有没有带 /v1,Ollama 服务是否在运行。

Q:模型回复很慢?确认电脑内存够用,内存不足建议换 2B 版本,或关闭其他占用内存的程序。

Q:OpenClaw 找不到配置项?检查 config.json 格式是否正确,JSON 不支持注释,删除文件里的注释行。

Q:想换其他模型怎么办?在 Ollama 里先拉取目标模型(如 ollama pull llama3),然后在 OpenClaw 配置里改 model_id 即可。


这套系统搭好之后,一个完全本地运行、私密安全、零成本的 AI 助手就到位了。适合对数据安全有要求、或者想长期省掉 API 费用的朋友。

有问题欢迎留言交流。