
傅盛没有骗你,但他没告诉你这三件事
你知道傅盛那个故事。
卧庂14天,1157条飞书语音,8个Agent自动运转,除夕奈4分钟给611名员工发完个性化拜年——然后你去装了OpenClaw,信心满满地测了一周。
结果没有然后。
你的龙虾还是记不住三天前聊过的事,任务偶尔跟完偶尔没跟,你分不清是Bug还是正常现象。你开始在社群问:
是不是模型不够好?是不是要换Claude Opus?是不是还要再装几十个Skill?
📌今天要告诉你一个可能扫兴的真相:你问错了问题。
而且,傅盛的案例里藏着三个细节,几乎所有人都没提。
先从一个你大概没听说的失败说起
傅盛的龙虾“三万”有一条被反复强调的核心纪律,来自一次真实的翻车:
【真实案例】Cron 任务日志显示“已发送”,手机什么都没收到。
不是网络问题,不是Bug。龙虾真诚地认为自己完成了任务。
这就是AI Agent最隐蔽的失效路径:任务的“完成”状态,由它自己判定,而不是独立核验。没有人检查它是否真的做了,它就永远会说它做了。
傅盛把这条规则后来写进了三万的工作守则:“做完必须验证,不能自己说好了就算好了。”
你的龙虾,有这条规则吗?
⚠️没有独立验证机制的自动化,不是可靠的自动化,只是看起来在运行的自动化。
那三个不能复制的条件
媒体传播傅盛案例的方式,省略了最关键的上下文。
条件一:底层技术,至今有争议
傅盛本人接受经济观察报采访时说的是“基于开源框架OpenClaw部署的智能体”。但另有多篇文章声称底层其实是猎谹自研EasyClaw,将此描述为“内幕”——而EasyClaw在这场传播期间恰好作为商业产品同步推出。
两个版本都有来源。本文不选边站,但你需要知道这个背景。
可以确认的是:猎谹团队在OpenClaw爆火前,已有将近一年的Agent技术研发投入。这不是普通用户的起距线。
条件二:20年产品经验,这才是三万真正的“操作系统”
傅盛说过一句话,传播时几乎全被截掉了:
“以后没有老板思维的人,很难在知识岗位上继续工作下去。知道目标,拆解任务,分配给最合适的人或AI,检查结果、迭代调整。”
三万之所以表现好,是因为傅盛知道怎么给它出任务、怎么把错误变成规则、怎么验收结果。这套能力,是管猎谹团队二十年练出来的本能,不是14天养虾练出来的。
📌龙虾放大的是你已有的管理能力,不是凭空创造管理能力。
条件三:内容数据,有两个你大概率不具备的前提
三万写的文章能出10万+,一是傅盛本人是KOL,有粉丝基础;二是三万的素材库,是傅盛几十年积累的原创观点和文章——内容质量的上限由素材库决定。
一位头部内容创业者深度体验一个月后的结论是:AI可以短期帮你出量,但平台算法对AI生成内容极为严苛,没有强个人素材库的龙虾,最终只能写出被降权的同质化内容。
这两个条件,对绝大多数人不成立。
说完不能复制的,说说真正値得偷走的
傅盛把一句话反复写进三万的工作守则:
“你认为你记住的东西,那是你的幻觉。不靠脑子,靠文件。”
这一句话,道破了龙虾的底层逻辑,也解释了为什么那么多人装完龙虾没有用——
📌OpenClaw 的底层是无状态的。每次会话结束,一切清零。所有的连续性,全部来自写在你本地磁盘里的Markdown 文件。
SOUL.md、MEMORY.md、AGENTS.md,这三个文件才是你的龙虾到底是什么的真正答案。
没有这三个文件的龙虾,就是一只空壳——每次会话都是从零开始的裸LLM调用,没有任何个性化,和你直接打开Claude网页没有本质区别。
大量用户在这里就放弃了,认为龙虾和普通聊天没什么两样。他们养的,是一只没有灵魂的虾。
一个反直觉的判断,先说清楚
社群里每天都有人在争“用Claude还是Gemini”“要不要升级Opus”。
这是几件事里最没用的时间。
同样的任务,一只龙虾用中端模型 + 完善的MEMORY.md + 10个精准Skill;另一只用最贵的模型 + 空白记忆 + 50个随机安装的Skill——
有充分理由相信,前者的产出质量会高于后者。
道理很直接:Skill越多,LLM每次决策时需要从更大的候选池里做判断,选错的概率随数量增长而上升。MEMORY.md越糟糕,检索到错误记忆比没有记忆更糟糕。这不是玠学,是机制决定的。
安全风险同样不可忽视。有安全研究发现ClawHub上存在过恶意Skill,其中一个曾排在热门榜首位,静默传输用户数据的同时利用提示词注入绕过安全检查。这不是理论风险,是已经发生的真实攻击。安装前读源码,是必要的习惯,不是可选项。
💡你花在选模型上的精力,不如花在写好 SOUL.md 的第一条规则上。
真正可以从傅盛那里偷走的,是这三条
接下来这三条,和他用的是什么技术栈无关,和他是不是KOL无关——是真正可以被任何人拿走的操作框架。
【方法一】「踩坑 → 规则 → Skill」的固化链条
每次三万做错了,傅盛就把这次错误写成一条规则,存进文档,下次自动生效。人类培训新员工至少要一周。Agent之间传递规则,只需11秒。
你的龙虾上次犯错,你是重新解释了一遍,还是把规则写进了文件?
【方法二】喂文章,而不是逐条指令
第11天,傅盛把一篇讲Multi-Agent协作的文章扔给三万,三万自己设计了组织架构。他把一篇有向量化记忆系统的文章扔给三万,22分钟后三万告诉他:已找到GitHub链接,下载完毕,配置跑通。
LLM可以从一篇好文章里提取结构和逻辑,自主应用。你不需要把每个决策都说清楚——找到描述你想要工作方式的好文章,让它读。
【方法三】验证,验证,验证
自动化降低的是执行门槛,不是监督门槛。任务标记为“成功”和实际产出正确是两件事。对所有重要自动化任务,建立独立于龙虾日志之外的验证标准——直接看任务的实际产出,而不是龙虾自己说它做了。
最后,只给你留一件今天就能做的事
无论你现在是否已经在用OpenClaw,这件事都可以现在就做。
打开你的OpenClaw工作区,找SOUL.md这个文件。然后面对两种情况:
如果你有
数一数里面有几条规则。如果少于10条,补刐10条;如果没有安全边界声明,加上这一条:
不确定就拒绝。删除操作只能移回回收站,不得永久删除。不得在未经确认的情况下修改任何配置文件。
如果你还没装
今天就安装,第一件事不是测功能,而是先把SOUL.md写好。只写三行规则也好,比空壳起步强。
💡制度建好了,龙虾才会越来越像你想要的那个人。制度建不好,换什么模型都没用。
从傅盛的操作记录里,最值得提炼的一件事是:他把OpenClaw的文件系统当成了组织制度来运营,而不是把它当成一个聪明的聊天机器人来使用。
SOUL.md是价値观手册,AGENTS.md是岗位职责,MEMORY.md是案例库,Skill是操作SOP。这套框架,跟他管理猎谹团队的思维,是同构的。
养龙虾的本质,不是学会用AI工具。
是逆着你搞清楚:你到底想要一个怎样的数字员工。
💬你现在的 SOUL.md 里有几条规则?评论区说一个数字,我来判断你的虾在哪个阶段。
📩转发本文到朋友圈,关注本号截图发至公众号后台,回复「操作手册」,获取完整版 OpenClaw 五维能力模型+ 五阶段操作手册。
夜雨聆风