第9篇:OpenClaw 本地大模型替换|完全离线、隐私拉满,你的AI自己掌控
(AI养虾日记 · 实战隐私篇)
前面我们把 OpenClaw 玩出了各种花样:0 代码技能、代码技能、远程机器人。但很多人最关心的还是:隐私、离线、不泄露数据。
这一篇就讲最硬核的:把 OpenClaw 默认模型换成你自己的本地大模型。断网也能用、文件不上云、指令不外传,真正做到"AI 完全属于你"。
一、本地模型有什么好处?
完全离线运行,不需要联网 隐私 100% 自己掌控,不上传任何数据 不收费、无调用限制 适合处理敏感文档、公司资料、私人文件 响应速度看本地电脑性能
二、支持哪些本地模型?
只要是兼容 OpenAI API 格式的本地模型服务都能接,最常用的:
Ollama(最简单、新手首选) LM Studio LocalAI FastGPT / QwenLM 等本地部署框架
本篇以最稳、最简单的 Ollama 为例,10 分钟换完。
三、准备工作
电脑:建议 16GB 内存以上 安装 Ollama 已正常安装 OpenClaw 不需要公网、不需要云服务
四、步骤1:安装 Ollama
Windows / Mac 直接官网下载
https://ollama.com/[1]
或终端安装(Mac/Linux)
curl -fsSL https://ollama.com/install.sh | sh
安装完,终端输入:
ollama --version
显示版本号即为成功。
五、步骤2:拉取一个轻量可用的模型
新手直接用这个,速度快、效果够用:
ollama pull qwen:7b
等待下载完成即可。
六、步骤3:查看本地模型 API 地址
Ollama 默认启动后会提供:
http://localhost:11434/v1
这就是你的本地大模型接口。
七、步骤4:修改 OpenClaw 配置
找到 OpenClaw 的配置文件 config.yaml 或 .env,把模型地址改成本地:
# 替换成以下内容
llm:
provider: openai
base_url: http://localhost:11434/v1
api_key: "dummy-key" # 本地模型随便填
model: "qwen:7b"
保存配置。
八、步骤5:重启 OpenClaw
openclaw restart
启动成功后,OpenClaw 现在完全走本地模型,不再连官方云端。
九、测试:断网也能用
断开 Wi-Fi 输入指令: 帮我整理桌面文件观察:AI 正常响应、执行、生成内容
成功!你的 AI 现在完全离线私有化。
十、本地模型优化建议
电脑配置一般:用 qwen:4b / qwen:7b 电脑配置好:用 llama3:8b / qwen:14b 想要更强中文:用 Qwen / Doubao / ChatGLM 想要更快:关闭后台软件,给模型多留内存
十一、优缺点真实总结
优点
隐私极强,不上云、不留记录 断网可用 无次数限制、永久免费 适合办公敏感场景
缺点
速度比云端慢 效果取决于本地模型 需要一定电脑配置
十二、本篇小结
OpenClaw + 本地大模型 = 私有化、离线、安全、可控的私人 AI 助手。只要换一行配置,就能从"云端 AI"变成"本地专属 AI"。
处理隐私文件、公司文档、敏感资料,再也不用担心泄露。
下一篇预告
第10篇:OpenClaw 技能仓库|分享30个可直接导入的实用技能(整理/重命名/文档/监控)
关注 AI养虾日记,持续更新最真实、最能落地的 OpenClaw 实战。
引用链接
[1]https://ollama.com/
夜雨聆风