Google 全新发布的 Gemma4 堪称 2026 年本地 AI 最优解,260 亿参数开源免费,普通笔记本就能离线全速运行。
今天我在折腾一件事:
👉 用 Mac mini 跑 Gemma 4 + 接入 OpenClaw
跑通之后,我的第一反应不是“AI更强了”,而是:
AI 的使用成本,正在被打到接近 0。
一、我是在 Mac mini 上跑起来的 Gemma 4
先说结论:
👉 Gemma 4 是可以在 Mac mini 上跑的
我用的是轻量版本(E4B),本地直接跑,完全离线。
没有云,没有API,没有费用。
两分钟搞定:
1 2 curl -fsSL ollama.com/install.sh | shollama pull gemma4:e4b
跑起来之后,你会有一种感觉:
AI第一次真正属于你自己的硬件了
二、Gemma 4 发布,我把架构扒了一遍
我专门对比了 Gemma 4 和 Gemma 3。
结论很有意思👇
✅ 架构几乎没变
还是那一套:
• Pre/Post-norm • 5:1 hybrid attention • GQA
说白了:
👉 不是靠架构创新赢的
✅ 但性能直接起飞
• 基准测试全面超 Gemma 3
✅ 26B MoE 是最大惊喜
👉 总参数 26B👉 实际激活只有 4B
什么意思?
用小模型的成本,打大模型的效果
✅ 最关键:Apache 2.0
这一点很多人没意识到有多重要:
👉 可以商用👉 可以改👉 可以私有部署
一句话总结 Gemma 4
架构没变,数据和训练方法才是真王道
所以我现在的判断是:
👉 架构党可以先歇歇了
三、很多人没看懂 Gemma 4 真正的价值
大部分人看到的是:
👉 开源👉 免费👉 本地能跑
但这些都不是重点。
真正的重点只有一个:
它原生支持 Function Calling(函数调用)
这意味着什么?
👉 它可以自己调用工具👉 可以执行代码👉 可以访问API👉 可以连数据库👉 可以浏览网页
说白了:
它不是聊天模型,是一个“能干活的本地智能体”
四、为什么我一定要接 OpenClaw
因为:
👉 Gemma4 + OpenClaw = 本地AI系统
OpenClaw 是什么?
你可以理解为:
AI的操作系统(Agent OS)
它负责:
• 多Agent协作 • 任务执行 • 工具调用(MCP) • 长时间运行
但很多人卡在这里:
👉 OpenClaw 根本没用到你的大模型
比如你看到:
1 gateway-injected
那说明:
你还在用内置小模型
五、正确接入姿势(关键)
1️⃣ 拉对模型
1 2 3 ollama pull gemma4:26b# 或ollama pull gemma4:31b
⚠️ 不能写 gemma4必须写完整:gemma4:26b
2️⃣ 配置 OpenClaw
1 2 3 4 5 6 { "id": "gemma4:26b", "name": "Gemma4 Local", "contextWindow": 262144, "maxTokens": 8192}
3️⃣ 强制切换模型
1 /model ollama/gemma4:26b
当你看到:
1 agent main | ollama/gemma4:26b
那一刻开始:
你就拥有了一个真正的本地 AI Agent
六、今天的测试
🧠 本地:Gemma 4
负责:
• 写文章 • 代码审查 • 数据处理 • 日常分析
🔧 工具:MCP + OpenClaw
负责:
• 调接口 • 浏览网页 • 数据库操作 • 自动执行任务
☁️ 云端:Claude Code(备用)
只在以下情况用:
• 高复杂推理 • 架构设计 • 超大项目
七、这套组合带来的变化(非常关键)
以前:
👉 每个月 AI 成本 几百美金
现在:
👉 90% 本地解决👉 只为 10% 付费
一句话总结:
AI从“按token收费”,变成“按电费收费”
八、我有一个老设备也能跑
我现在甚至在试:
👉 老显卡 + gemma4:e4b
结果是:
👉 轻松跑👉 稳定👉 可用
随便用,只耗电
夜雨聆风