乐于分享
好东西不私藏

OpenClaw 在 Mac Mini M1 (16G) 本地 LLM:从零到跑通

OpenClaw 在 Mac Mini M1 (16G) 本地 LLM:从零到跑通

实战笔记:Macmini9,1 / 16GB RAM / macOS 26.4 / arm64

目标

在 Mac Mini M1 上跑一个完全本地的 AI Agent——Ollama/MLX/llama.cpp 作为后端,OpenClaw 作为 Agent 框架。

我是 AI灵感闪现,致力于让 AI (OpenClaw/小龙虾 和 Claude Code/CC) 全面自主接管我的健康、投资、学习、工作与生活,把节省下来的时间,用于真正体验人生。我只给 AI 想法或目标,全程不陪跑,让 AI 自主运行类似 Tesla FSD 自动驾驶。已上架两款由 AI 自主开发的 App:MoneyMind 省钱思维、HeartPetBond 心宠纽带。健康、投资、学习、工作和生活的 AI 接管路径,正在持续推进,并分享实践在微信公众号 AI灵感闪现 和 网站 

https://www.vibesparking.com

第一步:确认机器能力

# 硬件sysctl hw.model          # Macmini9,1sysctl hw.memsize        # 17179869184 (= 16 GB)uname -m                 # arm64sw_vers                  # macOS 26.4# 可用空间:至少预留 20GB 给模型文件df -h /

第二步:安装推理后端

方案 A:Ollama(最省事)

brew install ollama# 启动服务ollama serve  # 默认监听 127.0.0.1:11434# 拉取模型ollama pull qwen3.5:9b       # ~6.6 GB,约 10-15 分钟ollama pull qwen3.5:4b-32k   # ~2.5 GBollama pull gemma4:e4b       # ~4.7 GBollama pull gemma4:e2b       # ~2.6 GB

方案 B:MLX(Apple Silicon 原生,更快)

pip install mlx-lm# 启动mlx_lm.server \  --model mlx-community/Qwen3.5-4B-MLX-4bit \  --host 127.0.0.1 --port 11435

4B 4bit 量化模型 RSS 约 2.8GB,在 16G 机器上完全够用。

方案 C:llama.cpp(Homebrew)

brew install llama.cpp   # 提供 llama-server# 需要从 HuggingFace 下载独立 GGUF 文件# ⚠️ Ollama 的 blob 文件不能直接给 llama-server 用(后文详细讲)

第三步:配置 OpenClaw

编辑 ~/.openclaw/openclaw.json

{"models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1","apiKey":"ollama-local","api":"openai-completions"},"mlx-local":{"baseUrl":"http://127.0.0.1:11435/v1","apiKey":"mlx-local","api":"openai-completions"}}},"agents":{"defaults":{"model":{"primary":"ollama/qwen3.5:9b"},"models":{"ollama/qwen3.5:9b":{},"ollama/qwen3.5:4b-32k":{},"ollama/gemma4:e4b":{},"ollama/gemma4:e2b":{},"mlx-local/mlx-community/Qwen3.5-4B-MLX-4bit":{}}}}}

三个必须知道的坑

  1. models.providers 定义后端,agents.defaults.models 定义 Agent 允许用的模型——两者缺一不可
  2. agents.defaults.model.primary 会固化 Agent 的默认模型,即使 openclaw models set 改全局默认,已有 session 不受影响
  3. 推荐不设 primary,让 Agent 新 session 自动跟随全局默认模型

第四步:验证

# 检查模型列表openclaw models list# 预期输出示例:# ollama/qwen3.5:9b    text  250k  yes  yes  default,configured# ollama/gemma4:e4b    text  128k  yes  yes  configured

第五步:启动 Agent

# 创建全新 session(避免粘旧模型)openclaw tui --session test-qwen# 在 TUI 内切换模型/model ollama/qwen3.5:9b

性能预期

在 Mac Mini M1 16G 上:

模型
Agent Pipeline 延迟
技术评估
gemma4:e4b
~4-5 分钟
搜索可,日历/通讯录弱
qwen3.5:9b
>21 分钟(thinking model)
不适合交互
qwen3.5:4b MLX
~1-2 分钟
工具调用强,文本生成弱

注意事项

  • OpenClaw gateway 被 kill 后会被 macOS app 自动重启——直接用 openclaw gateway restart 更稳
  • 模型文件总计约 15-20GB,确认磁盘空间
  • 首次冷启动会有额外模型加载时间(10-30 秒)
OpenClaw 小龙虾(点击跳转合集)

加入 AI灵感闪现 微信群

长按下图二维码进入 AI灵感闪现 微信群

长按下图二维码添加微信好友 VibeSparking 加群

关注 AI灵感闪现 微信公众号