最近这段时间,我一直在折腾一件事:让本地跑的大模型,不只是聊天工具,而是一个能 24 小时帮我干活的 AI 助手。
前面几篇文章,我带大家装了 Ollama、配了 Open WebUI、跑了 Qwen3.5。但说实话,到这一步还只是「本地有个 ChatGPT」的水平——你问它才答,不问就闲着。
今天这篇,我要把它升级成真正的 Agent:能定时执行任务、能主动推送消息、能自动化处理工作流,而且所有数据都留在本地。
用到的核心组合:Ollama + OpenClaw。
为什么需要 Agent 框架?
先说一个真实场景。我每天要做这些事:
早上看一眼 GitHub Trending,了解 AI 圈有什么新项目 检查邮箱有没有重要邮件 下午整理工作笔记 晚上把当天的日报推送到飞书群
这些事情,每件都不复杂,但加在一起每天要花掉我 30-40 分钟。
如果大模型只能坐在那等我提问,那这些事还是得我自己干。但如果它能主动执行,像一个全天候在线的助手——到点了自己去查、查完了自己推送给我——那就完全不一样了。
这就是 Agent 框架要解决的问题:把大模型从"被动问答"变成"主动执行"。
OpenClaw 是什么?
OpenClaw 是一个开源的 AI 助手框架,2026 年在 GitHub 上增长非常快,目前是 AI Agent 领域最活跃的项目之一。
它的核心思路很简单:给大模型装上手脚。 具体来说:
消息接入:可以连接飞书、微信、Discord、Telegram 等聊天工具 工具调用:大模型可以读写文件、执行 Shell 命令、搜索网页、操作浏览器 定时任务:内置 Cron 调度,让 AI 按时间表自动执行任务 心跳机制:AI 会定期「醒来」检查是否有需要处理的事情 记忆系统:跨会话保持记忆,今天做的事明天还记得
最关键的是,它原生支持 Ollama,意味着你可以完全用本地模型来驱动这整套系统,数据一个字节都不出你的电脑。
实操:从零搭建本地 AI 助手
第一步:确保 Ollama 已安装并运行
如果你跟着前几篇文章操作过,应该已经装好了。确认一下:
ollama list你应该能看到已下载的模型列表。我推荐用 Qwen3.5:9b 或 Qwen3.5:27b(如果你显存够的话),因为 OpenClaw 需要模型有较强的工具调用能力,太小的模型容易「犯糊涂」。
第二步:安装 OpenClaw
OpenClaw 基于 Node.js,安装很简单:
npm install -g openclaw安装完成后,初始化配置:
openclaw init这一步会引导你完成基础配置,包括选择模型提供商。我们选 Ollama。
第三步:配置本地模型
编辑 OpenClaw 的配置文件(通常在 ~/.openclaw/openclaw.json),关键部分参数设置:
models:default:provider:ollamamodel:qwen3.5:9bgateway:heartbeat:enabled:trueintervalMs:1800000# 每 30 分钟心跳一次这里有几个要点:
模型选择:至少用 9B 参数的模型,4B 及以下在工具调用时经常出错 心跳间隔:30 分钟比较合适,太频繁会占用资源,太长又不够及时 上下文窗口:确保模型支持至少 32K token,OpenClaw 的工具调用会消耗大量上下文
第四步:接入消息渠道
以飞书为例,你需要创建一个飞书应用,获取 App ID 和 App Secret,然后在配置中添加:
channels:feishu:appId:your_app_idappSecret:your_app_secret配置完成后,你就可以在飞书里直接跟本地 AI 对话了。发一条消息,OpenClaw 会把它转给本地的 Ollama,Ollama 生成回复后通过 OpenClaw 发回飞书。
整个链路:飞书 → OpenClaw → Ollama(本地) → OpenClaw → 飞书,数据全程在你的网络内。
第五步:配置定时任务(核心玩法)
这才是最好玩的部分。OpenClaw 内置了 Cron 调度系统,你可以让 AI 定时执行任务。
比如,每天早上 8 点自动搜索 GitHub Trending 并推送到飞书:
cron:-name:"每日 GitHub 热门"schedule:"0 8 * * *"task:"搜索今天 GitHub Trending 的 AI 相关项目,挑选最有价值的 3 个,用中文简要介绍,推送到飞书群"再比如,每天下午 6 点自动整理当天的工作笔记:
-name:"日报整理"schedule:"0 18 * * *"task:"读取今天的工作记录,整理成结构化的日报,保存到 memory 目录"我目前配了 5 个定时任务,覆盖了信息收集、笔记整理、内容生成等场景。每天大概能帮我省下 30-40 分钟的重复性工作。
第六步:利用心跳机制做智能巡检
除了定时任务,OpenClaw 还有一个「心跳」机制。你可以在 HEARTBEAT.md 文件里写上检查清单,AI 会每隔一段时间自动检查:
# HEARTBEAT.md- 检查是否有未读的重要邮件- 检查日历,提前 2 小时提醒即将到来的会议- 检查磁盘空间是否低于 10%这就像给 AI 装了一个「巡逻模式」——它会定期醒来看看有没有需要处理的事,有就处理,没有就继续休眠。
实际体验:本地模型跑 Agent 够用吗?
说实话,本地模型跑 Agent 和云端 API(比如 Claude、GPT)还是有差距的,主要体现在:
优势:
完全免费,没有 API 费用 数据隐私有保障,特别适合处理敏感信息 离线也能工作,不受网络影响 响应速度取决于你的硬件,好显卡甚至比云端更快
劣势:
工具调用的准确率不如顶级闭源模型 复杂多步骤任务容易出错 需要较好的硬件(建议至少 16GB 显存)
我的实际使用策略是混合模式:日常简单任务用本地模型(省钱),复杂任务切换到云端 API(求稳)。OpenClaw 支持多模型配置,你可以给不同的任务指定不同的模型:
models:default:provider:ollamamodel:qwen3.5:9bcomplex:provider:anthropicmodel:claude-opus-4-6硬件参考
如果你之前看过我那篇「CPU 也能跑」的文章,这里要说的是:Agent 场景对模型能力要求更高,纯 CPU 跑 Agent 体验会比较差。建议至少有 16GB 显存的独立显卡。
总结:谁适合这套方案?
对数据隐私有要求的人:所有数据本地处理,不经过任何第三方 想省 API 费用的开发者:用本地模型替代付费 API 喜欢折腾的技术爱好者:整个搭建过程就是一种乐趣 有重复性工作要自动化的人:定时任务 + 心跳机制能覆盖很多场景
如果你之前跟着系列文章装好了 Ollama 和 Open WebUI,那加上 OpenClaw 大概只需要 15 分钟。从「本地聊天」到「24 小时 AI 助手」的升级,性价比非常高。
夜雨聆风