餐饮店AI应用:基于开源Gemma4大模型本地部署“龙虾”店长
上周,去一个做烧烤的朋友店里撸串。他走的是“走串分发”模式,也就是服务员端着烤好的托盘在桌间穿梭,客人看中什么拿什么,最后数签子结账。目前每家店六到八路摄像头,录像存满就覆盖,如果非特殊需要几乎不会主动去回看复盘。
像哪类客人偏爱羊肉串、哪类更爱板筋和腰子、客人拿起一串闻了闻又放回托盘说明什么、哪些品类在托盘上转了三圈都没人要以及每天变化的财务流水——这些信息每天产生又每天消失,之前依赖店员们粗粒度统计难免带来主观偏差,因此久而久之这些有价值的信息流像从未存在过一样。
作为一名算法工程师的职业敏感度一下上来了,这么多鲜活的数据就这样白白存着吃灰实在浪费,然后问他没想过用 AI 吗?他说不是没想过:去年试过一家做什么“云端智慧餐饮”的 SaaS,方案倒是炫,但最后还是不了了之。原因很简单:门店摄像头拍到的是真实顾客的行为画面、还有门店流水 ···,这些东西传到第三方的云服务器上实在风险太大;还有就是这个订阅成本对于他们这种规模的店也兜不住啊。
我跟他说,你想要的东西,现在可能真的能做了。不用上云,不用把数据交给任何人,给你们每个门店配一台 Mac 就能完全本地跑。
他不信。我花了两周给他搭了一个原型。这篇文章就是我这两周干的事。
传统的烧烤摊管理,本质上是靠人盯人。所谓花里胡哨的数字化运营根本不现实,因为基本的数据统计、录入都腾不出人手来做。也就是说,门店 99% 的真实运营状态,我朋友是看不见的。尤其是天气一热,室外区域支起来之后,营业面积直接翻倍,摄像头的监控范围本来就捉襟见肘,人力更跟不上。
几年前计算机视觉技术成熟之后,理论上摄像头可以变成“永远不下班的店长”。但实际落地碰了一鼻子灰。要么是传统的 CV 方案只能做简单的计数和告警,比如“检测到有人进入禁区”,它理解不了业务上下文,更不可能告诉你“晚市的板筋在托盘上停留时间比上周长了 40%,可能是烤制火候出了问题”。
今年初的龙虾浪潮确实也不可避免的让很多做餐饮的朋友产生了新的想法:能不能养几只虾来替我管理门店?尝试过后,纷纷求着卸载。高昂的模型 API 费用和各种安全隐患,不得不让我朋友回到现实。
直到 2026 年 4 月,谷歌发了 Gemma 4,我看完技术文档后,感觉完全本地化的多智能体应用初见端倪。
Gemma 4 是谷歌用做 Gemini 的同源技术搞出来的开源模型,Apache 2.0 协议,商用无限制。我选择了它的 31B 版本,采用混合专家架构(MoE)——总共 310 亿参数保证了知识量,但每次推理只激活 46 亿参数。这意味着一台 Mac Studio M4 Max(64GB 统一内存)就能把它跑到每秒 30-35 个 Token 的生成速度。分析一张 1080P 的监控截图,从“看”到“说”,三秒搞定。
它还有 256K 的上下文窗口。你可以在一次对话里塞进去一整天的运营日志、几十张关键时刻的监控截图、加上完整的门店规章制度,它全部装得下,而且前后逻辑能串起来。
更重要的是原生多模态。Gemma 4 不是一个“加了视觉插件的文字模型”,它在预训练阶段就同时学了文本、图像、视频和音频。它能理解画面里的空间关系和人的动作,不是那种“检测到一个人形目标”的粗暴识别,而是真的看得懂“托盘上还剩三串鸡翅没人拿,旁边那桌客人刚把一串羊腰子闻了闻又放回去了”。
但光有聪明的脑子不够。门店管理需要的不是这种一问一答的 ChatBot,而是一个能自己巡逻、自己记录、自己判断该不该上报决策的自主系统。
这正是 OpenClaw 干的事。
我用一个 SOUL.md 定义它的“人格”和行为红线(比如“绝对不能截取顾客人脸”),用一个 AGENTS.md 定义它的工作流程(比如“收到心跳时先看后厨烤制区再看前厅走串区”)。改配置就是改文件,复制到新门店就是复制文件夹,天然支持 Git 版本控制。
当 Gemma 4 作为大脑、OpenClaw 作为躯干组合在一起的时候,它不再是一个“能问问题的聊天窗口”,而是一个永远不下班、能看能听能记、跑在你自己机器上、一个字节的数据都不会外泄的数字店长。
这才是真正的范式变化:以前这三个条件——够聪明、跑得动、数据不出门——没有任何一套开源方案能同时满足。现在可以了。
光说概念没用,让我具体讲三个场景。每一个都是以前想做但做不了的。
第一个:看见客人“差点买但没买”的东西。
POS 系统能告诉你今天卖了多少串羊肉、多少串板筋,但它永远告诉不了你:有多少客人盯着鱿鱼看了两秒最终没拿?服务员走到那桌时客人正在聊天压根没注意到托盘?
智能体每 15 分钟自动抓取摄像头画面,识别客人与托盘的交互——直接夹走、拿起又放下、闻了闻皱眉放回、压根没看。一周之后,系统告诉我朋友:脆骨的“拿起又放下”率 35%,集中在下午时段,原因是午后烤制偏硬。牛肉粒“被注视但未拿取”比率极高,可能是定价让客人犹豫。
这些“沉默信号”以前根本看不见,现在全在本地记录里,跟签子数据交叉比对就能找到问题。
第二个:后厨出品监控。
烤制区摄像头能看到串的颜色变化、是否有蚊虫等卫生影响以及一些规范化的模式监测。
WWT 曾给美国一家快餐连锁做的视觉品控方案,食物状态识别准确率达到 95%。我们这套本地方案,成本是一台 Mac Studio,没有月付 API 费用,数据不出门店。
第三个:自动生成运营日报。
每日凌晨1:00,智能体自动汇总当天所有巡检记录、POS 签子数据、历史运营报表,生成一份有因果关系的分析报告。不是“数据下降了”,而是“为什么下降、历史上怎么处理的、这次该怎么做”。
系统跑一个月后会“记住”这家店的规律——周五晚上牛肉类消耗量翻倍要提前备货、气温超 30 度时室外啤酒激增但烤串反降、某个新师傅上岗时段客人放回托盘比率偏高。这种组织级经验沉淀,以前只在老店长脑子里,人走了就没了。现在都在本地记忆文件里,换谁接手都能续上。
手把手搭建:我是怎么干的
在我开始写具体步骤之前,先说一件让我挺意外的事。
就在我给朋友搭原型的那两周里,谷歌官方自己下场了。Gemma 4 是 4 月 2 日发布的,结果不到一周,YouTube 上就涌出了一堆“Gemma 4 + OpenClaw 100% Free Local Setup”的教程视频。Twitter 上有个叫 Min Choi 的开发者发了条帖子,说“Google‘s Gemma 4 is pretty wild. You can now run it locally with OpenClaw in 3 steps”——安装 Ollama、拉模型、启动 OpenClaw,完事。评论区全是“Private local AI agents in minutes”。
更关键的是,OpenClaw 官方在 2026.4.7 版本的 GitHub Release 里专门为 Gemma 4 做了适配,包括对 Gemma 4 thinking 模式的兼容处理。也就是说,这不是什么社区 hack 出来的野路子,而是两边官方团队都在推的标准组合。Gemma 4 在 Ollama 上开箱即用,原生支持 tool calling,不需要你额外折腾什么适配层。根据 lushbinary.com 的基准测试,Gemma 4 26B 在 OpenClaw 的智能体工具调用场景下(τ2-bench)准确率达到了 85.5%,足以支撑多步骤的自主任务执行。
所以你以为搭这套系统很复杂?谷歌和 OpenClaw 社区已经把路铺得不能再平了。社区疯传的“三步法”说白了就是:装 Ollama → 拉模型 → 连 OpenClaw。下面我做的事情,无非是在这三步的基础上,加了摄像头对接和门店级的配置,让它从一个“coding agent”变成一个“门店数字店长”。
先搞定硬件和基础环境
硬件选型:Mac Studio M4 Max
推荐配置 Mac Studio M4 Max(30 核 CPU、40 核 GPU、64GB 统一内存、1TB 存储),Apple 中国官方售价 22,999 元。这个配置能让 Gemma 4 31B 在 Q4 量化下达到每秒 30-35 token 的推理速度,Q8 量化约 20-25 token/秒,BF16 全精度约 10-15 token/秒,完全满足门店实时分析需求。
为什么选 M4 Max 而非 M3 Ultra?
-
性能充足:64GB 统一内存可流畅运行 Gemma 4 31B Q8 量化版本,接近无损质量,甚至支持 BF16 全精度推理
-
成本合理:22,999 元相比 M3 Ultra(约 55,999 元)节省超过 60%,性价比极高
-
未来扩展:支持多模型并行、20+ 技能同时运行,适合后续功能扩展和团队协作
-
专业开发能力:30 核 CPU + 40 核 GPU 配置适合同时运行多个智能体、处理高并发巡检任务
如果预算有限,也可以考虑 Mac Studio M4 Max 48GB+1TB 版本(约 20,999 元),但建议直接上 64GB 避免后期内存瓶颈。这台机器需要和门店摄像头在同一局域网。
成本对比:本地部署 vs 云端 API
我给朋友算了笔账。他这家店日均营业 12 小时,按我设计的系统——每 15 分钟巡检一次(每次分析 6 张 1080P 截图)、每晚生成一份日报、每小时评估一次 LED 屏该推什么品、每周自动生成两条营销视频脚本——实际跑下来,一个月大概要消耗 1,700 万 tokens。这里面视觉分析占大头,因为每张监控截图喂给多模态模型,模型得“看懂”画面里的空间关系、人的动作、托盘上的串,这比纯文字对话费 token 多了。
如果用云端 API 来跑,2026 年 4 月国产多模态大模型的价格是这样的:智谱 GLM-5.1 综合成本约 4.8 元/百万 tokens,MiniMax-M2.7 约 2.73 元/百万 tokens,Kimi-2.5 约 3.7 元/百万 tokens,通义千问 3.6-Plus 和豆包 Seed-2.0-Pro 都在 4 元/百万 tokens 左右。取个中位数算,平均 3.85 元/百万 tokens。
1,700 万 tokens × 3.85 元 = 月度 API 成本约 65 元。
听起来不贵?但这只是模型调用费。真要把大模型的能力跟自己业务结合起来,可能还得需要搭建一套餐饮类的SaaS系统,前期跟对方商务砍价,中期需要对方来这部署实施,后期的维护也需要对方派人来。这都是隐形的成本。
所以云端方案的真实月成本估算是:API 费 65 元 + SaaS 订阅 1,200 元 + 数据传输 300 元 = 1,565 元/月。保守点算,就算找个便宜的 SaaS(800 元/月)、数据传输省着点(200 元/月),也得 1,065 元/月。
本地部署呢?Mac Studio M4 Max 64GB+1TB,一次性投入 22,999 元。M4 Max 最大功耗 145W,我实测日均运行 12 小时(营业时间全开,打烊后待机),电价 0.5 元/度,月电费 26 块钱。就这些,没了。数据一个字节都不出门店,摄像头画面在本地分析完直接删掉,连备份都不用上云。
算一下回本周期:22,999 元 ÷(1,065 元/月 – 26 元/月)= 22.1 个月。
如果你对比的是中档 SaaS(1500元/月),回本周期是 15.6 个月。而且完全没有数据泄露的风险。
通过龙虾与本地大模型的结合,如果持续分析以优化自身经营策略,还真有可能带来收益。我朋友那家店月营收 6、7 万,系统上线第一周就发现室外区域的服务员覆盖率不足,预估每天损失20%左右。他马上调整了室外空间布局,还增加了一个专门负责室外的服务员。一个月后复盘,室外区域营收涨了 18%。
如果算上这部分运营优化收益,硬件投入 估计不到半年就能回本了。
而且如果他要计划开分店,这套系统完全可以无摩擦地迁移过去。
所以我跟他说,这不是“要不要上 AI”的问题,而是“数据主权值不值三万块”的问题。你的顾客行为数据、门店运营数据,这些东西放在自己手里,还是交给第三方另外还得给对方服务费?答案其实挺明确的。
好了不多说了,下面正式讲讲怎么安装。。。
Mac Studio M4 Max 开箱即用,macOS 系统已预装。先安装 Homebrew 包管理器和基础工具:
# 安装 Homebrew
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
# 安装基础工具
brew install git ffmpeg node@22
FFmpeg 是后面抓摄像头画面用的,确认安装成功:
ffmpeg -version # 看到版本号即可
node --version # 确认 v22.x.x
Mac Studio 的统一内存架构让 CPU 和 GPU 共享同一块内存池,无需像 NVIDIA GPU 那样配置驱动,开箱即可用于 AI 推理。
把 Gemma 4 跑起来
这一步就是社区说的“三步法”的前两步。我选了 Ollama 作为模型托管层。它的好处是全自动——下载模型、量化加载、暴露 API 一条龙,对外提供跟 OpenAI 兼容的 HTTP 接口。Gemma 4 发布当天 Ollama 就把它加进了官方模型库,一行命令搞定,没有任何额外配置。
# macOS 下安装 Ollama
brew install ollama
# 启动 Ollama 服务
ollama serve &
# 拉取 Gemma 4 31B 模型(Q4 量化版本)
ollama pull gemma4:31b-q4
模型文件约 18GB,首次下载需要等待。完成后运行 ollama list,看到 gemma4:31b-q4 就说明模型就绪。
量化版本选择:
-
Q4 量化 (
gemma4:31b-q4):约 18GB,推理速度 30-35 token/秒,适合生产环境 -
Q8 量化 (
gemma4:31b-q8):约 33GB,推理速度 20-25 token/秒,质量接近无损 -
BF16 全精度 (
gemma4:31b):约 62GB,推理速度 10-15 token/秒,最高质量
对于门店巡检场景,Q4 量化基本够用,性价比最高。
这一步一定要验证一下多模态能力是不是真的好使。我当时的做法是先测文字,再测图片:
# 测文字
curl http://127.0.0.1:11434/api/generate -d '{
"model": "gemma4:26b",
"prompt": "用一句话解释什么是混合专家架构",
"stream": false
}'# 测图片(找一张本地图片,base64编码后发过去)
BASE64_IMG=$(base64 -w 0 test_image.jpg)
curl http://127.0.0.1:11434/api/generate -d "{
\"model\": \"gemma4:26b\",
\"prompt\": \"描述这张图片里有什么\",
\"images\": [\"$BASE64_IMG\"],
\"stream\": false
}"
两个都能正常回复中文,就说明本地推理引擎完全没问题了。我当时拿了一张门店烤制区的照片测的,Gemma 4 直接告诉我“画面中有两名工作人员正在操作烤炉,左侧烤架上的肉串表面已呈深褐色,疑似烤制时间偏长,右侧工作人员未佩戴一次性手套”——说实话,比我自己看得还仔细。
装好 OpenClaw 并把它对接到本地模型
这就是“三步法”的最后一步,把 OpenClaw 指向你本地跑着的 Gemma 4 实例。
npm install -g openclaw
mkdir -p /opt/store-agent && cd /opt/store-agent
openclaw init
初始化完会生成一个标准的工作区目录。然后打开 openclaw.json,把模型指向本地的 Ollama 实例。这一步的核心意义是:彻底切断与云端的联系,所有推理都在这台机器上完成。如果你想用最简单的方式,OpenClaw 甚至支持一行命令完成对接——openclaw onboard 然后选择 custom-api-key,填入 Ollama 的本地地址就行。但因为我们的场景需要更多自定义配置(心跳、webhook、记忆),还是直接改配置文件更清楚。
{
"name":"store-monitor-agent",
"version":"1.0.0",
"models":{
"primary":{
"provider":"ollama",
"model":"gemma4:31b-q4",
"endpoint":"http://127.0.0.1:11434",
"temperature":0.3,
"max_tokens":8192
},
"fallback":null
},
"plugins":{
"memory-core":{
"enabled":true,
"storage":"sqlite",
"db_path":"./memory/agent_memory.db"
}
},
"heartbeat":{
"enabled":true,
"interval_minutes":15,
"start_hour":6,
"end_hour":24
},
"channels":{
"cli":{"enabled":true},
"webhook":{
"enabled":true,
"port":8080,
"secret":"your-webhook-secret-here"
}
}
}
temperature 设成 0.3 是有讲究的。监控分析要的是稳定和客观,你不希望模型“发挥创意”告诉你摄像头里有一只不存在的猫。fallback 设成 null 是故意的——我们就是要确保这套系统 100% 不依赖外部网络。另外有个坑要提一下:如果你发现智能体的 tool calling 出了格式问题,参考 haimaker.ai 的建议,在模型配置里加上 "reasoning": false。Gemma 4 本身支持 tool calling,但开了 reasoning 模式有时候会跟 OpenClaw 期望的调用格式冲突。
到这里,社区说的“三步法”就走完了。你已经有了一个跑在本地的、Gemma 4 驱动的 AI 智能体框架。接下来要做的,是给它注入“门店管理”的灵魂。
给智能体写“灵魂”和“工作手册”
这是 OpenClaw 最优雅的部分。你不需要写任何代码来定义智能体的行为,只需要写两个 Markdown 文件。
SOUL.md 是它的价值观和行为红线。我写的内容核心有三条:只描述确凿看到的事实,不做主观推测;绝对不保存顾客面部信息,只追踪匿名的人群密度和行为模式;汇报时先说结论再列数据。这些不是建议,是硬约束,在每次推理前龙虾都会把 SOUL.md 的内容注入到模型上下文里。
AGENTS.md 是它的工作流程。我写了两个核心逻辑。第一个是心跳巡检:每 15 分钟自动抓取各路摄像头画面,分析有没有异常,有问题就通过 webhook 发企微消息给值班经理,同时把本次巡检结果追加写入当天的记忆文件。第二个是每晚 23:30 的日报生成:汇总一整天的巡检记录和 POS 签子数据,用 Gemma 4 生成结构化的运营分析报告。
这里面有一句配置我特别喜欢,是从 OpenClaw 社区学来的:“不要请示,直接去做。”传统的 AI 助手都是被动的——你不问它不答。但在 AGENTS.md 里,我明确告诉它:收到心跳信号就自动执行巡检流程,不需要任何人的批准。这一句话把 AI 从“工具”变成了“员工”。
让它“看见”摄像头
摄像头对接的核心是用 FFmpeg 从 RTSP 流抓取画面。主流 IP 摄像头(海康威视、大华、ONVIF 通用协议)都支持 RTSP 协议,地址格式通常为 rtsp://用户名:密码 @IP:554/路径。
创建抓帧脚本 scripts/capture_rtsp.sh:
#!/bin/bash
CAMERA_URL="${1:?需要RTSP地址}"
OUTPUT_FILE="${2:-workspace_temp/snapshot_$(date +%s).jpg}"
mkdir -p "$(dirname "$OUTPUT_FILE")"
ffmpeg -y -rtsp_transport tcp -stimeout 5000000 \
-i "$CAMERA_URL" -vframes 1 -q:v 2 \
"$OUTPUT_FILE" 2>/dev/null
[ $? -eq 0 ] && [ -s "$OUTPUT_FILE" ] && \
echo"SUCCESS|$OUTPUT_FILE" || \
echo"ERROR|抓取失败"
赋予执行权限后测试:chmod +x scripts/capture_rtsp.sh && ./scripts/capture_rtsp.sh "rtsp://admin: pass @192.168.1.100:554/Streaming/Channels/101"
在 skills/camera-vision/SKILL.md 定义技能,将摄像头 ID 映射到 RTSP 地址。典型部署:入口、就餐区(室内/室外)、烤制区、出串口共 5-7 路。建议将凭据存入环境变量而非硬编码。citation
多源数据融合:从“看”到“懂”
单纯依赖视觉会产生误判。某次系统报告“客人连续三次拿起羊肉串又放回”,判定为品质问题。但交叉 POS 数据发现该桌最终消费了 15 串羊肉(桌均 6 串),实际是在挑选烤制程度。真正的洞察是“同托盘烤制一致性不足”,而非“品质差”。
系统需要整合三类数据:
POS 交易流:通过 REST API 或直接读取 MySQL,每 5 分钟拉取交易明细,与视觉数据交叉验证。主流收银系统(客如云、美团收银)均支持此类对接。
点餐设备数据:预点订单与实际消费的差异能揭示服务盲区。通过 webhook 实时推送到智能体。
历史文档库:将烤制标准、运营报表、排班表等整理为 Markdown/PDF,放入 documents/目录。OpenClaw 的 memory_search 插件自动建立语义索引。
在 AGENTS.md 中设定规则:任何判断必须交叉至少两个数据源。单源结论仅标记“待验证”,不触发告警。这一规则使误报率降低 50% 以上。
跑起来,然后验证
mkdir -p workspace_temp
openclaw chat
先用交互模式测试。在对话框里输入“请抓取烤制区摄像头的实时画面并分析当前状况”,看它是不是能正确调用技能、抓到图、给出分析。再让它“回顾今天的巡检记录生成一份小结”,确认记忆读取是否正常。
都没问题之后,切到后台服务模式。macOS 使用 launchd 来管理进程,挂掉了能自动重启。创建服务配置文件 ~/Library/LaunchAgents/com.store.agent.plist:
<!--?xml version="1.0" encoding="UTF-8"?-->
<plistversion="1.0"><dict>
<key>Label</key>
<string>com.store.agent</string>
<key>ProgramArguments</key>
<array>
<string>/opt/homebrew/bin/openclaw</string>
<string>serve</string>
</array>
<key>WorkingDirectory</key>
<string>/opt/store-agent</string>
<key>RunAtLoad</key>
<true>
<key>KeepAlive</key>
<true>
<key>StandardOutPath</key>
<string>/opt/store-agent/logs/stdout.log</string>
<key>StandardErrorPath</key>
<string>/opt/store-agent/logs/stderr.log</string></true></true></dict></plist>
加载并启动服务:
mkdir -p /opt/store-agent/logs
launchctl load ~/Library/LaunchAgents/com.store.agent.plist
launchctl start com.store.agent
系统就开始 7×24 小时值守了。
扩展功能:LED 屏智能控制
门店 LED 屏通常用于展示菜品推荐和促销信息,但传统方案需要人工更新内容。现在可以让智能体根据实时运营数据自动调整屏幕显示。
主流 LED 控制器(诺瓦、灵星雨等)支持 RESTful API 或 MQTT 协议。以支持 API 的 Netrixx 系列为例,可通过 HTTP POST 发送 JSON 指令更新显示内容。
在 skills/led-control/SKILL.md 定义技能:
// 发送显示内容到LED屏
asyncfunctionupdateLEDDisplay(message, duration) {
const response = awaitfetch('http://192.168.1.200/api/display', {
method: 'POST',
headers: {'Content-Type': 'application/json'},
body: JSON.stringify({
message: message,
duration: duration,
priority: 'normal'
})
});
return response.ok;
}
在 AGENTS.md 中设定触发逻辑:当系统检测到某品类在托盘上停留时间超过阈值,自动在 LED 屏推送“限时特价”信息;当后厨出现备货不足预警,显示“该品类即将售罄,请尽快品尝”。这种动态响应机制能有效提升滞销品周转率。
可扩展功能:AI 自动化营销视频生成
短视频营销已成餐饮门店标配,但人工拍摄剪辑成本高、周期长。朋友问我:你这个龙虾能不能帮我直接剪好门店的营销短视频?说实话,这有点压榨我们的Gemma同学了,一个开源模型要啥自行车,哈哈,不过,还是要尽可能试一下,探索一下我这技术方案的能力边界。下面只说一下涉及的流程,不代表已完全跑通。
工作流程:店员用手机拍摄门店素材(烤串特写、就餐氛围等)上传到指定文件夹→智能体检测到新素材→调用 Gemma 4 生成脚本文案(基于当日热销数据和历史高转化文案)→调用视频生成 API 合成成片→自动发布到抖音/视频号草稿箱。
技术实现基于 2026 年成熟的 AI 视频工具链。脚本生成可用本地 Gemma 4,视频合成调用 Pictory 或 OpusClip 的 API。Pictory 支持“script-to-video”模式,输入文案自动匹配素材库镜头、生成字幕和配音。
在 skills/video-marketing/SKILL.md 定义流程:
# 1. 脚本生成
script = gemma4_generate(
prompt=f"基于今日热销品{top_items}和门店氛围素材,生成15秒短视频脚本",
context=historical_high_performing_scripts
)
# 2. 视频合成
video = pictory_api.create_video(
script=script,
footage_folder="./uploads/today",
style="food_marketing",
aspect_ratio="9:16"
)
# 3. 发布到草稿箱
douyin_api.upload_draft(video, caption=script.title)
实测一条 15 秒营销视频从素材上传到草稿箱就绪,全流程自动化耗时约 8 分钟。相比人工拍摄剪辑(2-3 小时),效率提升超过 20 倍。关键是系统能学习哪类文案和镜头组合转化率更高,持续优化生成策略。
如果想要制作逼真的数字人或者比较惊艳的产品包装视频,可能就不得不接入Seedance2.0这类顶尖的视频大模型了。
生产环境注意事项
Ollama API 默认监听 127.0.0.1,保持此设置确保安全。webhook 端口暴露到内网需配置 IP 白名单。workspace_temp 截图文件定期清理(使用 macOS 的 launchd 定时任务)。
系统资源监控:
# 查看内存使用情况
sudo memory_pressure
# 监控 CPU 和 GPU 使用率
sudo powermetrics --samplers cpu_power,gpu_power -i 5000
# 查看进程资源占用
top -o mem
避免内存占用超过 85%。SQLite 记忆库超 1GB 需归档历史数据。Mac Studio 的统一内存架构让 CPU 和 GPU 共享内存池,需要预留至少 6GB 给系统和其他应用。
不止是烧烤
我用烧烤店场景切入是因为朋友的真实需求,但这套本地多模态推理加自主智能体加持久化记忆的内核架构,天然适用于任何需要“7×24 小时无人值守智能监管”的场景。
在每一个场景中,你要改的就三样东西:SOUL.md 里的行为准则、SKILL.md 里的摄像头映射表、AGENTS.md 里的巡检 SOP。模型、框架、基础设施全部复用。
Salesforce 的人预测,2026 年及以后,单个孤立的 AI 智能体会沦为数据孤岛,真正有价值的是多智能体编排。我已经在想下一步了:走串区的顾客行为分析智能体、后厨的烤制品控智能体、采购和库存的后台智能体,跑在同一个 OpenClaw 网关下,共享同一个记忆池。某个品类连续三天在托盘上的停留时间异常,它们能自主发起联合调查——从走串区的顾客反应数据,到烤制区的操作记录,到采购端的原料批次,全链条追溯。
这不是科幻。每一个技术组件今天都已经存在,而且全部开源。
写在最后
德勤在 2026 年的技术趋势报告里提了一个词叫“硅基劳动力”(silicon-based workforce),说的就是这种从被动工具到自主执行的转变。麦肯锡估计,通过边缘 AI 和数字孪生的介入,企业能实现 5% 以上的营收增长和 10% 的劳动力成本缩减。
但让我真正兴奋的不是这些宏大叙事。让我兴奋的是,上周我朋友看着他家门店的第一份 运营日报,真的有了那种AI开始赋能实体生意的兴奋感。
他说了一句话:“我开了八年烧烤店,从来没想过能够以这种方式高效率监控烧烤质量;也从来不知道如何科学精细的预估未来营收”
这才是这套技术的真正价值。不是让 AI 帮你省了几个人的工资,而是让你第一次看见了那些以前根本不知道存在的东西。
Gemma 4 是免费的,OpenClaw 是免费的,FFmpeg 是免费的。一台 Mac Studio M4 Max(22,999 元),一两天的部署时间,你就能给你的每一家门店装上一个永远不下班的数字店长。
数据不出门店,经验持续沉淀,决策实时生成。
对以上内容感兴趣的读者们可以扫描下方二维码,拉你进群一起讨论。

夜雨聆风