这篇文章讲前段时间比较火的 OpenClaw for Team ,分享下我们跑出的一些实践,以及业内OpenClaw for Team 这个事情落地的卡点有哪些。
本文讲的会比较基础,偏科普。本文的 AI 含量低于 5%,所有内容都是打开飞书实时语音记录,自己口述出来,生成转写文字稿,最后AI只简单润色。
我们是一个小团队,整个产研加起来不到十个人,只有我一个全职产品经理,没有分什么研发一组二组。没有信息需要隔离开的诉求,没有什么权限层级。所以我们可以极致地享受"打破信息差"这件事带来的所有红利。
我的🦞day one开始就是给团队用的
养🦞第一天,设想到,它若是团队用,相比于给个人用,肯定能极大程度地拔高它的上限。
为什么?书接上回

一个 Agent 拥有的 context 越多、质量越高,它的能力上限就越高。详见:如何用AI完成产品经理所有工作?
所以我当时的设想是:假设有一个 Agent,它知道我们公司发生的所有事情。它能看到所有代码库,能看到所有业务文档和知识库,知道每个群聊每天在聊什么,理想态若它能知道我们所有人脑子里的所有东西。且这个 Agent 又能招手即来,那它能干的事情是非常多的。
它知道我们公司发生的所有事情,那它能不能干我们公司的所有事情?
试着用了没多久,就摸索到了一些还不错的实践案例:
举个例子,有个场景是:我们测试同事在群里反馈了一个 bug,发了截图。群里有前端、有后端、有产品。以前的流程是:研发看截图,推原因,排查,修复,测试。
现在:我直接 @OpenClaw:"分析一下以上这个 bug 的原因。"
因为 OpenClaw 有所有代码库的权限,它可以直接在群聊里把分析结果发出来。研发看了,如果分析得对,直接追一句:"提一个修改方案。"如果方案也没问题,继续说:"去改这个 bug,然后跑单元测试。"如果中间哪一步不对,群里其他人可以直接纠偏。整个 bug 的修复流程,在一个群聊里就很快推完了。
这个场景的本质是什么?可以啰嗦点讲清楚
一般情况下,一个人能给 AI 下达的高质量决策是有限的。产品经理能在产品方案上做出好决策,但做不了代码层面的判断。研发能写代码,但对业务的理解没有产品深。每个人的"高质量决策范围"是有边界的。
但在一个群聊场景里,不同角色的人全在。配上一个什么都能看见、什么都会做的 Agent,不同角色可以在最短时间内,从各自的专业视角,对同一个问题下达高质量的决策。 产品经理判断需求合不合理,研发判断技术方案对不对,测试判断修完之后要验什么。每个人只做自己最擅长的那个判断,然后全部交给一个执行效率极高的"全栈员工"去推...
本质上是让人类继续做决策者,让 AI 做执行者。而且是多个人类决策者同时在线,各管各的专业领域,合力指挥一个"什么都会但不自主决策"的员工。这个效率是最高的。
(以上真实案例发生的时间是2026年2月,这一套改bug的流程,在现在2026年3月来看,它已经很过时了,现在市面上有高效地做法,效率可以比这个高出几倍不止)
还有一些很基础的实践案例:例如产品经理在写产品方案的时候,可以随时让 OpenClaw 参与。因为它能看到代码,所以它等于是一个"有研发视角的辅助手"。
产品经理写方案的时候,@它一句:"帮我看看这个方案在技术上有没有什么坑。"它可以从代码层面告诉你:这个功能现有架构支不支持,改动量大不大,有没有什么依赖你没考虑到。
一个很懂研发的产品经理,做出的产品决策质量一定比不懂研发的高。而 OpenClaw 就相当于给每个产品经理配了一个随叫随到的研发顾问。产出的方案质量会高很多,研发拿到之后也不用反复扯皮。
(实话讲,这个案例和Opeclaw可能没太大关系哈哈,任何一个coding agent都可以做到,只是OpenClaw作为一个契机让我意识到了这个场景可以work)
还有一些case,比如新人 onboarding:新人入职,直接在飞书里问 OpenClaw 任何关于业务逻辑、历史决策的问题。它等于一个永远不会烦、永远有空的高级同事带教。
还有一些场景,比如每天晚上OpenClaw会跑自动化测试,产出可视化报告...
...总之,我们公司的中后台系统,现在是以OpenClaw为中心的,或者说是以OpenClaw为交互入口的。用惯了 OpenClaw 这种交互方式,你就很难再回到过去的 GUI 那一套了。
一个题外话:以上也解释了为什么对于一个团队来讲,养虾一定要养在本地,而非云端。
OpenClaw 它不是所有场景下最好用的那个
我们现在还没有让 OpenClaw 做端到端的编程,就是从需求确认后,让它把后续所有事全干了,关键节点审批一下。它也能做到。
但我们没这么做,原因是:在同样做一个编程任务的场景下,本地开一个 Claude Code 会话,可能比在飞书里喊一个 OpenClaw 更快、质量更高。
几个原因:
第一,Claude Code 的 Agent Loop 比 OpenClaw 强。 在编程这个领域,同样的基座模型,Claude Code 的代码生成质量会更高一些。它的工具设计、上下文管理、任务执行策略,都是专门为编程场景优化过的。同样一个任务,OpenClaw 可能要跑5步才能搞定,Claude Code 3步就解决了,而且质量更好。
第二,OpenClaw 更费 Token。 它每次会话都会加载很多 Markdown 文件作为 context,输入 Token 消耗比其他 Agent 高不少。
所以我之前有一个设想:让 OpenClaw 只当一个"传话的"。它接收飞书里的任务,然后去调度桌面上的 Claude Code 来干活。它只负责传达任务、反馈执行结果。但这个事要work,会涉及不少工程问题,比如单会话多任务的上下文传递,OpenClaw 把任务传给 Claude Code,Claude Code 执行完传回来,中间要做到"信息不丢失、意图不走形",并不是个简单的事。当然也可能是我没有深入去摸索,也许真搞起来也没那么难。
所以目前我们的 OpenClaw 只做一些"基础任务"、做群聊里的即时响应、做跨角色协作的中枢。重编程的活,还是交给 Claude Code。
🦞招手即来
说到这里你可能会问:上面这些事,别的 Agent 也能做吧?Claude Code 连上飞书也能干吧?
理论上是的。但 OpenClaw 它是第一个可以在飞书群聊里、在任何一个业务环节里,被随时唤起的 Agent。 招手即来,用完就走。
这个"随时唤起",它让整个组织的信息流转效率提高了很多。以前要问一个问题,可能你得找到对的人,等他有空,然后对齐背景,再讨论。现在直接 @一下,几秒钟出结果。
有效地量化和降低信息差,是一家企业高效运转的核心。
OpenClaw for Team 大规模落地的卡点有哪些
我们团队很特殊。小、简单、不需要信息隔离。但大多数团队不是这样的。
举个例子。假设一个上百人的产研大团队,有P5、P6、P7、P8多个职级。如果部署了一个公用的 OpenClaw,老板天天跟它聊,让它帮忙做绩效考核、分析裁员名单、评估每个人的画像。然后底下的员工,听到了一些裁员的风声,直接去问 OpenClaw:"这次裁员名单里有没有我?"
它有可能告诉你。因为它知道所有信息。
这在任何一个正常的组织里都是不允许的。一个组织有时候需要信息隔离来保证正常运转。职级不同,掌握的信息不同。同一职级、不同模块,掌握的信息也不同。每个人是有边界的,而且边界之间需要尽可能清晰。
所以 OpenClaw 要进入一个组织,一般情况下,它得先符合这个组织现有的制度规范,而不是一上来就打破它。 权限隔离的本质就是信息隔离。这是一个必须被解决的问题,不然企业不会买单。
但这些都属于工程问题,工程问题都是可解决的。 现在市面上有上百家团队在做 OpenClaw for Team,迟早会有这样的能力的龙虾出生:既保住了隔离,又保留了"打破信息差"的部分能力。
除了信息隔离,还有一些落地时容易被忽视的卡点。
1.责任归属。 群聊里多人指挥 AI 改了代码,上线出了问题,谁负责?以前一行代码对应一个提交者,很清晰。现在一个 Agent 听了三个人的指令改了五个文件,追责链条变模糊了。组织需要一套新的 accountability 机制。
2.采纳率的方差。 团队里总有人用得好、有人抗拒。用得好的人效率翻倍,用得差的人产出质量反而下降,还会拉低整个团队对工具的信任。"这东西不行",很多时候不是工具不行,是用的人不行。但在组织里,这种认知差距很难快速拉齐。
人类是决策者,人类也是瓶颈,这些"人的问题"会直接拖慢整个系统。OpenClaw for Team 能跑多快,最终取决于这个团队里最慢的那个人。
所以这就是为什么很多人会坚定地认为:未来的组织规模会越来越小,不需要这么多人。
模型能力是天花板
国内很多团队非常注重数据安全,用不了闭源的模型。
基座模型的智力水平直接决定了 OpenClaw 的上限。
稍微上点难度的场景,如果模型不对,就是在浪费时间。 你等了半天,它最后给你拉出来一坨。老板看了觉得"这东西也就这样嘛",直接弃用。
日常的简单任务,录个 bug、改个任务状态、发个通知,国产模型够用了。但稍微复杂一点,比如分析一个涉及多模块的 bug、写一份有技术深度的方案,瓶颈就立刻出现。
其实用越好的模型,其实越安全。 这里的安全不是网络安全,而是"它更能在有效的约束边界内做事"。好的模型知道什么事不该干,它就绝对不干。差一点的模型,指令遵循能力不行,你告诉它 "you can't do this",它当耳旁风。
上下文一长、对话轮数一多,开始出现幻觉,开始胡言乱语,开始犯傻。在一个企业环境里,这种"不可控"是很致命的。
团队场景下的 Context 飞轮
如何用AI完成产品经理所有工作?上一篇文章里聊过 context 工程的数据飞轮效应。在个人场景下,你一个人积累 context,一个人受益。但在团队场景下,这个飞轮有一个独特的放大效应:每个人贡献的 context 不只服务于自己,而是服务于整个团队。
最后说一个我个人的判断:OpenClaw for Team 的终局不是"给每个员工配一个助手",而是整个组织共享一个不断进化的数字大脑。 每个人和它交互的过程,都在训练它对这个组织的理解。用得越久,它越懂这家公司,越能做更复杂的事。这是传统 SaaS 工具做不到的,SaaS 不会因为你用得久就变聪明,但 Agent 会。
其他几个值得讨论的问题
1. OpenClaw 跟上一代 Agent 到底有什么不一样?
拿 OpenClaw 和 Manus、Kimi 的 OK Computer 这类产品比。表面上看都是 Agent,都能帮你干活,他们之间到底有什么区别?
第一,它是第一个让人看到 AI 可以像真人一样 7×24 小时干活的产品。 定时任务、主动反馈、能够自我迭代和进化,这些能力组合在一起,看起来就不像是一个”你问它答”的工具,而更像一个持续在线的员工。
第二,它第一个打通了飞书、iMessage 这些通讯软件。 这意味着唤起一个 Agent 的门槛降到了最低:在你日常聊天的地方 @一下就行。不用打开一个新网页,不用登录一个新平台,入口的差异,直接决定了使用频次。
第三,它是”自己的”。 你给它装的 Skill、喂的 context、跑出来的记忆,都是属于你的。它不像是一个临时工,而是一个随着你的使用不断进化的私人 Agent。
还有,第一次跟它对话的时候,你会感觉它比其他 Agent 更有”人味”。这个东西很微妙,很难量化,但体验上确实不一样。
…
(以下几个思考题,可以自己探讨)
2. OpenClaw 有 C 端用户场景吗?
实话讲,普通大众日常要用的 C 端场景,问问西、写文案、翻译、闲聊,豆包App够不够用?OpenClaw 对 C 端用户的增量价值是什么?
3. 为什么淘宝这样的”旧世界”应用选择开放 Skill 给 OpenClaw?
背后的逻辑其实很纠结。一方面,如果你不开放 Skill,用户的入口迁移到 OpenClaw 之后,你就被绕过了。用户说”帮我在淘宝上买个充电器”,如果淘宝没接 Skill,OpenClaw 可能就去京东了。所以你必须接。
但另一方面,接了之后,APP 退化成了 Skill 提供方。用户不再打开淘宝 APP,而是通过 OpenClaw 下单。那品牌认知在哪?用户关系在哪?增长飞轮还在不在?你辛辛苦苦建了十几年的用户体系和推荐算法,突然变成了一个被调用的 API..
4. Skill 生态的钱怎么分?
如果 Skill 生态真的跑起来,商业模式是什么?平台抽成?Skill 订阅?按调用计费?
夜雨聆风