OpenClaw 在 Mac Mini M1 (16G) 本地 LLM:从零到跑通
实战笔记:Macmini9,1 / 16GB RAM / macOS 26.4 / arm64
目标
在 Mac Mini M1 上跑一个完全本地的 AI Agent——Ollama/MLX/llama.cpp 作为后端,OpenClaw 作为 Agent 框架。
我是 AI灵感闪现,致力于让 AI (OpenClaw/小龙虾 和 Claude Code/CC) 全面自主接管我的健康、投资、学习、工作与生活,把节省下来的时间,用于真正体验人生。我只给 AI 想法或目标,全程不陪跑,让 AI 自主运行类似 Tesla FSD 自动驾驶。已上架两款由 AI 自主开发的 App:MoneyMind 省钱思维、HeartPetBond 心宠纽带。健康、投资、学习、工作和生活的 AI 接管路径,正在持续推进,并分享实践在微信公众号 AI灵感闪现 和 网站
https://www.vibesparking.com
第一步:确认机器能力
# 硬件sysctl hw.model # Macmini9,1sysctl hw.memsize # 17179869184 (= 16 GB)uname -m # arm64sw_vers # macOS 26.4# 可用空间:至少预留 20GB 给模型文件df -h /
第二步:安装推理后端
方案 A:Ollama(最省事)
brew install ollama# 启动服务ollama serve # 默认监听 127.0.0.1:11434# 拉取模型ollama pull qwen3.5:9b # ~6.6 GB,约 10-15 分钟ollama pull qwen3.5:4b-32k # ~2.5 GBollama pull gemma4:e4b # ~4.7 GBollama pull gemma4:e2b # ~2.6 GB
方案 B:MLX(Apple Silicon 原生,更快)
pip install mlx-lm# 启动mlx_lm.server \ --model mlx-community/Qwen3.5-4B-MLX-4bit \ --host 127.0.0.1 --port 11435
4B 4bit 量化模型 RSS 约 2.8GB,在 16G 机器上完全够用。
方案 C:llama.cpp(Homebrew)
brew install llama.cpp # 提供 llama-server# 需要从 HuggingFace 下载独立 GGUF 文件# ⚠️ Ollama 的 blob 文件不能直接给 llama-server 用(后文详细讲)
第三步:配置 OpenClaw
编辑 ~/.openclaw/openclaw.json:
{"models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1","apiKey":"ollama-local","api":"openai-completions"},"mlx-local":{"baseUrl":"http://127.0.0.1:11435/v1","apiKey":"mlx-local","api":"openai-completions"}}},"agents":{"defaults":{"model":{"primary":"ollama/qwen3.5:9b"},"models":{"ollama/qwen3.5:9b":{},"ollama/qwen3.5:4b-32k":{},"ollama/gemma4:e4b":{},"ollama/gemma4:e2b":{},"mlx-local/mlx-community/Qwen3.5-4B-MLX-4bit":{}}}}}
三个必须知道的坑:
-
models.providers定义后端,agents.defaults.models定义 Agent 允许用的模型——两者缺一不可 -
agents.defaults.model.primary会固化 Agent 的默认模型,即使openclaw models set改全局默认,已有 session 不受影响 -
推荐不设 primary,让 Agent 新 session 自动跟随全局默认模型
第四步:验证
# 检查模型列表openclaw models list# 预期输出示例:# ollama/qwen3.5:9b text 250k yes yes default,configured# ollama/gemma4:e4b text 128k yes yes configured
第五步:启动 Agent
# 创建全新 session(避免粘旧模型)openclaw tui --session test-qwen# 在 TUI 内切换模型/model ollama/qwen3.5:9b
性能预期
在 Mac Mini M1 16G 上:
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
注意事项
-
OpenClaw gateway 被 kill 后会被 macOS app 自动重启——直接用 openclaw gateway restart更稳 -
模型文件总计约 15-20GB,确认磁盘空间 -
首次冷启动会有额外模型加载时间(10-30 秒)

加入 AI灵感闪现 微信群
长按下图二维码进入 AI灵感闪现 微信群

长按下图二维码添加微信好友 VibeSparking 加群

关注 AI灵感闪现 微信公众号

夜雨聆风