250,000个GitHub Star,60天。
这不是某个新编程语言的战绩,而是一只"龙虾"——OpenClaw,一个让普通用户能在自己电脑上部署AI Agent的开源项目。这份由北大肖睿团队发布的 《OpenClaw001:龙虾使用入门》(2026年3月版)【文末附资源免费下载方式】,记录的不仅是技术参数,更是一场正在发生的生产力政变。
当大厂CTO们还在争论"Agent是不是泡沫"时,深圳龙岗的行政文员已经用它在飞书上自动处理报销单了。

【文末附资源免费下载方式】
01 大厂都在撒谎?本地部署才是真正的"新质生产力"
表面上,腾讯云、阿里云、火山引擎都在推OpenClaw的"一键云端部署"。
实际上,他们真正害怕的是你选择本地部署。
文档第49页的数据很残酷:本地部署的响应延迟接近零,数据完全不出域,能直接调用本地文件系统和Shell脚本。而云端版本?不过是把你从"用AI"变成"租AI",每月17.8元起,加上Token消耗,一年下来够买两台Mac mini。
深圳南山科技园的"养虾"沙龙里,一个叫阿杰的95后开发者告诉我:他给公司部署的云端方案,三个月Token费用烧了8万。换成本地Mac mini M4后,一次性投入6000块,性能反而更稳。
这就是真相:大厂用低价基础设施做诱饵,钓的是你持续消耗的模型Token。国产模型Token出海占比从2024年底的2%飙到2026年的39%,你以为他们在做慈善?
02 谁在给谁打工?你的"龙虾"正在变成别人的数据奶牛
文档第68页的安全警告被大多数人忽略了。
ClawHub市场上13,000+技能插件,36%含严重漏洞,13%被确认植入恶意载荷。某"Twitter集成"技能表面帮你发推文,背地里在偷Crypto钱包和浏览器Cookie。
更隐蔽的陷阱是记忆系统。
OpenClaw的核心竞争力是"SOUL.md+MEMORY.md"的本地记忆架构(文档第32-35页)。你的每一次对话、每一份文件、每一个习惯,都被写成Markdown存在本地。这听起来很美好,直到你发现:
云端托管版本(如Kimi Claw、ArkClaw)的记忆文件存储在服务商服务器 你的"长期记忆"成了训练他们模型的免费语料 文档第34页明确警告:"规模化后检索效率下降,长期上下文压缩时存在信息丢失风险"——翻译成人话:你的记忆会被算法"遗忘"或"扭曲"
杭州萧山区政府推的"免费部署+Token补贴",本质上是用财政的钱帮大厂买用户数据。当你以为自己在"养虾"时,你才是被圈养的那只。
03 生存指南:48小时最小闭环,避开90%的人踩过的坑
文档第50-62页提供了详细的部署路径,但大多数人卡在第一步。以下是基于北大团队建议的极简生存方案:
红线检查:你的硬件选对了吗?
Mac mini M4基础版是首选,但2026年春节后一度断货。别信"Windows原生支持"的鬼话——文档第50页明确说"不建议直接使用Windows原生环境",WSL或Docker才是正解。树莓派能跑,但复杂任务会卡成PPT。
72小时原型:混合模型路由策略
文档第55页的"任务路由"方案是目前最省钱的实战配置:
日常简单任务 → Step 3.5 Flash或MiniMax M2.5 Flash(成本最低) 复杂规划/写长文 → Kimi K2.5(超长上下文) 核心代码/重要决策 → Claude Opus 4.6(长任务不崩, Anthropic官方称可连续运行30+小时)
别一上来就All in Claude Opus。北京中关村的"养虾"老手都知道:80%的任务用国产Flash模型就能解决,成本只有国际旗舰模型的1/10。
最小可交付:SOUL.md必须自己写
文档第62页提供了一个"效率型助手"的SOUL.md模板,但千万不要直接复制。
那个叫阿杰的开发者,最初直接用了GitHub上的"万能SOUL.md",结果他的Agent变得像个话痨客服——每次回复先寒暄500字。后来他自己重写,把"先给答案,再解释"设为最高优先级,效率提升3倍。
关键动作:在SOUL.md里明确列出"绝对红线"——绝不询问银行卡、密码、身份证,绝不主动提供人生建议。文档第58页警告,AGENTS.md不写安全规则,可能导致Agent乱调用工具或泄露隐私。
04 当"养虾"变成一门生意,谁在收割焦虑?
闲鱼上"上门安装龙虾"的服务已经标价200-500元/次。腾讯总部楼下曾出现千人排队免费安装的盛况。Mac mini M4在二手平台加价30%仍供不应求。
这不是技术普及,这是焦虑变现。
文档第47页提到的"信息差业务"正在野蛮生长:有人用OpenClaw自动抓取小红书热帖,打包成"每日行业情报"卖999元/月;有人专门给企业做"SOUL.md调优",单次收费过万。
但真相是(文档第66-67页):自定义Skill的开发门槛极低,核心是写一个Markdown文件"教"AI怎么做。你不需要会编程,只需要会说人话。
最讽刺的对比:当普通用户花几百块找人"代养虾"时,大厂内部早已把Agent当成基础设施。腾讯的WorkBuddy(文档第23页)已经深度集成企业微信和腾讯会议,自动化会议纪要、跨部门任务追踪——这些功能,开源版本通过ClawHub的技能市场基本都能实现,成本为零。
05 个人AI时代的"阶级分化"已经开始
文档第77页的判读很犀利:"从Driver(驾驶员)变成Manager(管理者),就是AI时代的晋升之路。"
但这背后是一个残酷的筛选机制:
上层:用Claude Opus 4.6+本地部署+自定义Skill,构建完全自主的Agent团队,24/7不间断运行 中层:依赖Kimi Claw、ArkClaw等云端托管方案,享受便利但交出数据主权 底层:花高价买"代部署服务",用着被篡改的SOUL.md,养着一只"智障龙虾"
更隐蔽的分化在记忆所有权。
文档第33-34页详细描述的MEMORY.md体系,是OpenClaw区别于所有云端Agent的核心。当你的长期记忆以纯文本Markdown存在本地,你可以压缩、提炼、备份、人工修改。这意味着你的AI助手真正"属于你"。
而云端方案的用户,他们的记忆是服务商数据库里的二进制碎片,随时可能被算法优化掉。
最后问你三个问题:
你的Agent记忆存在哪里?当你说"帮我整理上周的会议纪要"时,它是在本地翻你的Markdown文件,还是在云端检索被加密过的二进制碎片?
你用的是"龙虾",还是"龙虾形状的SaaS"?
当AI Agent成为新质生产力的标配,拥有本地部署能力的人,和只能依赖云端的人,会不会是下一个十年的数字阶级分界线?
点击下载PDF
报告太厚?我们帮你撕掉 90%
往期推荐
夜雨聆风