搭一个三阶段、可回退、可彻底卸载的 OpenClaw 本地方案
顺手建立一个“养虾日记”,把每天的安装、报错、效果、改动都记下来,后面出问题能回溯
基于
型号名称:MacBook Pro
型号标识符:MacBookPro18,3
型号:MKGP3CH/A
芯片:Apple M1 Pro
核总数:8(6性能和2能效)
内存:16 GB
这台 MacBook Pro M1 Pro / 16GB,最稳的路线仍然是:

第 1 阶段只装 Ollama 和一个小模型;第 2 阶段再接 OpenClaw;第 3 阶段再做你的“养虾日记”和日常工作流。
这样拆层的原因很简单:Ollama 在 macOS 上原生安装、CLI、API、本地模型删除和卸载路径都比较清晰;OpenClaw 也已经能通过 ollama launch openclaw直接拉起。
总体原则:你的方案一定要满足这 5 条
本地能跑动
中文别太差
响应别太慢
能长期日常用
任何一步出问题,都能回滚或彻底卸载
所以我建议你别一开始就“全家桶”安装,而是按下面这三个阶段走。
三阶段可回退安装方案
阶段 1:只装 Ollama + 一个主模型
目标:先验证你的 Mac 本地跑模型是否稳定
这一步做什么
安装 Ollama
只下载 1 个主力小模型
不装 OpenClaw
不接插件
不做自动化
Ollama 官方推荐的 macOS 安装方式是把 ollama.dmg挂载后拖到 Applications,首次启动会检查 CLI 是否在 PATH 里,并提示建立 /usr/local/bin的链接。Ollama 安装后,模型文件会额外占用不少空间。
这一阶段的推荐模型
对现在的目标:
主模型:Qwen 小规格
备选:Gemma 小规格后装
先别同时装多个大模型
先上一个小规格主模型更重要;Gemma 可以第二个再试。
阶段 1 的成功标准
只看这 4 件事:
终端里能正常运行模型
连续问 10 个问题不崩
风扇/发热在可接受范围
关掉后机器恢复正常
阶段 1 的回退方式
如果模型不满意,不需要卸载 Ollama,只删模型就行。
Ollama 官方提供删除模型的能力,既可以用 API 删除,也可以通过 CLI 管理模型。默认本地 API 在 http://localhost:11434/api。
你可以把“回退”分成两档:
轻回退
删掉当前模型
保留 Ollama
换另一个模型测试
重回退
彻底卸载 Ollama
清掉模型和缓存
回到安装前状态
阶段 2:在已验证稳定的基础上接 OpenClaw
目标:只验证“OpenClaw 能不能稳定调用你已经跑通的本地模型”
Ollama 官方已经把 OpenClaw 作为可直接 launch 的集成之一,官方文档和首页都给出了:
ollama launch openclaw而且通过 Ollama 启动时,OpenClaw 的 web search / fetch 插件会自动启用。
这一步不要做的事
不要一上来接很多聊天平台
不要同时装一堆插件
不要一上来导入复杂个人数据
不要同时测试多个模型路由
阶段 2 的成功标准
你只需要验证:
OpenClaw 能启动
能调用本地模型
能完成最基础的对话/任务
关闭后不会影响你平时的 Mac 使用
阶段 2 的回退方式
这一步非常关键:
OpenClaw 必须被当成“可拆卸层”,不是底层系统。
所以出问题时回退顺序应该是:
先停 OpenClaw
删 OpenClaw 相关配置或集成
保留 Ollama 和模型继续单独测试
如果还是不满意,再删模型
最后再决定是否彻底卸载 Ollama
也就是说,OpenClaw 永远不要比 Ollama 更底层。
阶段 3:做“养虾日记”系统
目标:把 OpenClaw 当成一个长期养成项目,而不是一次性安装
这个阶段不是技术炫技,而是给你一个真正“能回溯”的系统。
本地 AI 养成日志 + 故障回溯手册 + 配置变更记录
这样以后出现任何问题,你都能快速定位:
是哪天开始变慢的
是换了哪个模型后开始出错的
是 OpenClaw 本体的问题,还是模型的问题
是提示词变了,还是插件变了
是否值得完全卸载重来
“养虾日记”怎么做最实用
最稳的是:一个本地文件夹 + Markdown 日记 + 配置快照
建议的目录结构
OpenClaw-Shrimp-Diary/├── 00-总览│ ├── 设备信息.md│ ├── 当前架构.md│ └── 卸载与回退说明.md├── 01-安装日志│ ├── 2026-04-15-安装Ollama.md│ ├── 2026-04-16-安装主模型.md│ └── 2026-04-17-接入OpenClaw.md├── 02-日常观察│ ├── 每日日志模板.md│ └── 2026-04-18.md├── 03-问题记录│ ├── 模型慢.md│ ├── OpenClaw卡住.md│ └── 插件异常.md├── 04-配置快照│ ├── 模型版本记录.md│ ├── 启动命令.md│ └── 参数变更.md└── 05-效果样本 ├── 中文问答样本.md ├── 摘要样本.md └── 失败案例.md这个结构的好处是:
简单
完全本地
删除也干净
回看非常快
“养虾日记”每天只记 6 件事就够了:
每日日志模板
# 日期:2026-04-15## 今天的虾状态- 模型:Qwen 小规格 / Gemma 小规格- OpenClaw:已开启 / 未开启- Mac 状态:正常 / 发热 / 卡顿 / 风扇明显## 今天做了什么- 安装/更新:- 改了什么配置:- 新增了什么插件/功能:## 表现如何- 中文表现:- 响应速度:- 稳定性:- 是否影响日常使用:## 发现的问题- 问题 1:- 复现方式:- 严重程度:轻 / 中 / 重## 今天的结论- 保留:- 观察:- 回退 / 不回退:## 明天准备怎么养- 下一步动作:这个模板非常适合你,因为你不是在做实验室评测,而是在“养一个本地助手”。
真正的“回退系统”要记录什么
你特别在意“出问题可以回溯系统或者完全卸载”,所以你必须额外记录 3 类信息:
1. 版本
每次改动都记:
Ollama 版本
模型名称
模型大小/量化版本
OpenClaw 是否启用
2. 命令
每次安装、删除、启动,用过的命令都抄进去
3. 症状开始时间
例如:
“4 月 18 日开始明显变慢”
“4 月 19 日接 OpenClaw 后首次卡死”
“4 月 20 日换 Gemma 后中文明显变差”
以后你一看就知道该回滚到哪天。
彻底卸载思路
Ollama 官方在 macOS 文档里给了明确卸载路径,所以你做“完全清空”是可行的。官方文档说明了卸载 Ollama 应用本体、模型目录和相关数据的位置。
所以你的彻底清空顺序建议是:
A. 只撤 OpenClaw
适合:你觉得 OpenClaw 不稳定,但本地模型还想保留
B. 删模型
适合:你觉得模型选错了,但 Ollama 本体还想留着
C. 卸载 Ollama
适合:你想回到最原始状态
也就是说,你的“完全后悔”是有出口的,不会把系统越搞越乱。这个思路本身就比一开始装满一堆东西更安全。Ollama 官方也明确了 macOS 的安装/卸载路径和本地运行方式。
适合的执行顺序
第 1 周:只养“底座”
安装 Ollama
只跑一个主模型
每天记一次“养虾日记”
不装 OpenClaw
第 2 周:再养“虾缸”
接入 OpenClaw
不接复杂通道
只做最基础任务
出问题先拆 OpenClaw
第 3 周:再养“生态”
再考虑 Gemma 对比
再考虑插件
再考虑你真正要做的日常记录和自动化
最优方案不是“立刻安装一个很厉害的完整 AI 系统”,而是:
先搭一个可退、可拆、可清空的本地 AI 小系统,再把它慢慢养成。
就是:
先别急着把虾缸布满景观,先把第一只虾养活。
你现在最适合的顺序是:
阶段 1:Ollama + 一个小模型
阶段 2:OpenClaw 作为可拆卸层接入
阶段 3:用“养虾日记”记录每天状态、改动、问题和回退点

夜雨聆风