乐于分享
好东西不私藏

AI原生团队的火箭模型操作手册

AI原生团队的火箭模型操作手册

开篇:当数字员工加入团队,管理者的工具箱还够用吗?

过去两年,越来越多的团队开始引入AI Agent——它们能写代码、做客服、分析数据、生成报告。它们7×24小时在线,成本只有人类的十分之一,产出却相当稳定。

然后问题来了:这些数字员工算团队成员吗?如果算,它们向谁汇报?怎么考核?怎么激励?它们和人类成员之间谁优先级更高?当AI犯错,谁来负责?

传统团队管理框架——无论是OKR、敏捷还是各种领导力理论——都没有回答过这些问题。因为过去两千年的组织史,默认团队是由碳基人类组成的。

我们需要一个能同时容纳人类与AI的团队效能框架。这正是火箭模型(Rocket Model的价值所在。

火箭模型的核心洞见

Curphy博士与Nilsen基于20年、2500+团队数据验证的火箭模型,其核心洞见可以概括为三条:

1.系统性:团队效能不是由单一因素决定的,而是八个组件(情境、使命、人才、规范、认同、资源、勇气、结果)协同作用的结果。

2.层级依赖:下层组件是上层组件的基础。情境不稳,使命必偏;使命不清,人才难留;人才不配,规范难行……任何短板都会向上传导。

3.逆向诊断:当结果不达标时,不能在上层施压,而必须从结果倒推至底层,逐层定位根本病因。

这三条洞见在AI时代不仅没有过时,反而变得更加重要。因为AI放大了组织的速度和复杂度,下层的小裂缝会更快演变成上层的灾难。同时,AI也提供了前所未有的诊断能力——实时数据流和Evals(评估集)让逆向诊断从季度复盘变成持续感知。

但八个组件的操作手法正在发生本质变化。尤其是:

人才:数字员工如何配置、如何设定汇报结构、如何激励

规范:人与AI如何沟通?如何问责?会议怎么开?如何自我迭代?

认同:人类成员是否愿意把AI当作队友第一团队的归属感如何扩展至数字员工?

本文将逐一回答这些问题。我们先建立一张总览表,然后深入每个组件的操作细节。

一、总览:八个组件的本质与操作手法变化

二、组件一:Context(情境)——会议同步实时检索

本质不变:团队仍需要对客户、竞争者、监管者等外部实体形成一致认知。

操作手法变化

不再每季度开情境扫描会。而是建立自动化情境感知管道:外部新闻、政策更新、竞品动态通过API实时写入向量数据库。

团队成员和AI Agent在决策时,自动检索最相关的5条上下文。检索结果对全员可见,确保共享心智不是口号,而是可验证的。

具体操作:使用RAG框架(如LangChain),设置每小时抓取,embedding模型选用text-embedding-3-small。首次搭建约2周。

三、组件二:Mission(使命)——目的不变,目标/计划/监控的操作手法进化

火箭模型原意Mission是团队存在的根本原因,包含四个二级要素——目的(Purpose:团队为何存在?目标(SMART Goals:如何定义成功?行动计划(Action Plans:如何一步步实现?绩效监控(Monitoring:如何跟踪进度?

内涵不变:这四个问题,AI时代仍然需要回答。团队仍然需要知道自己为什么存在、要去哪里、怎么去、走到哪了。使命的本质——为团队提供方向感和衡量标准——没有任何变化。

操作手法进化AI让后三个要素更可拆解、可追溯、可自动化。但目的(Purpose)仍由人类定义和传承AI不参与为什么存在的决策,只辅助传播和提醒。

二级要素

传统操作手法

AI原生操作手法

变化性质

目的

领导宣讲、团队讨论、文化墙

人类定义;AI可生成故事、案例、提醒,辅助强化使命感知

本质不变,操作微调

目标

人写SMART目标、Excel追踪

AI自动校验目标是否符合SMART标准;实时追踪进度;偏差自动预警并@责任人

本质不变,操作进化

行动计划

甘特图、周会同步、邮件确认

AI将计划拆解为原子任务;自动分配给合适的Agent或人类;里程碑到期前24h自动提醒

本质不变,操作进化

绩效监控

周报、月会、翻报表

实时仪表盘;异常驱动告警(非异常不打扰);AI自动生成偏差归因分析

本质不变,操作进化

具体操作示例

目的:每季度召开一次使命回顾会,人类成员分享我们为什么存在的故事。AI助手提前收集客户感谢信、失败教训等素材,供会上讨论使用。

目标:将年度OKR接入AI追踪系统。例如“Q3客户满意度提升至92%”AI自动计算每日NPS,低于90%连续3天则发送预警。

行动计划:项目经理用自然语言描述计划,AI自动生成任务分解结构(WBS),识别依赖关系,估算资源,并分配给对应的Agent

监控:取消周报。AI每周一早上推送上周关键指标摘要本周需关注的3个风险点。人类只处理异常项。

新的诊断问题

我们的目的是否被全员(包括AI)清晰理解?AI在辅助传播时是否保持了信息一致性?

SMART目标是否接入了自动化追踪系统?预警阈值设置是否合理?

行动计划是否被AI拆解到可自动分配的最小粒度?

监控是否从周频升级为实时异常驱动?误报率是否可控?

新的干预处方

目的强化:建立使命素材库AI自动从客户反馈、项目复盘、团队故事中提取与使命相关的片段,供人类在回顾会上使用。

目标自动化:用OKR软件接入AI分析引擎,设置目标置信区间(例如80%概率达成),自动识别最可能偏离的目标

计划拆解:使用Task分解Agent(如AutoGPT + 项目管理工具),初始拆解后必须经人类DRI审核修正,逐步建立人机计划共识

监控仪表盘:采用红黄绿灯机制,绿色不打扰,黄色推送到频道,红色立即@相关人。每月回顾一次误报/漏报率,调整Evals

四、组件三:Talent(人才)——数字员工如何配置、汇报、激励?(重点)

本质不变:团队仍需关注规模、技能、结构、角色、集体导向、奖励机制。但成员的定义从人类扩展为人类+数字员工(AI Agent

4.1 团队规模:从“5-9“5-7人 + NAgent”

火箭模型指出,超过9人的团队沟通成本指数级上升。AI原生团队中,这个阈值依然适用——但指的是核心人类成员数量。每个核心人类可以携带5-20AI Agent。因此有效团队规模变为:5-7个核心人类 数十个Agent

4.2 技能矩阵:人类标注专业能力Agent标注能力边界

人类成员的技能矩阵:除传统技能外,新增“AI编排能力”——设计工作流、编写Evals、调试Agent行为。

Agent的技能矩阵:每个Agent需标注:擅长任务类型、输入输出格式、依赖的外部工具、已知失败模式(Evals未覆盖的边界)。这类似于数字员工简历

4.3 汇报结构:人-Agent混合汇报链

传统RACI模型需要扩展。我们定义四种关系:

Owner(负责人):只能是人类。最终对任务结果承担责任。

Operator(执行者):可以是人类或Agent。负责具体操作。

Reviewer(审核者):通常是人类,但低风险任务可由另一个Agent自动审核。

Informed(知会者):包括相关人类和Agent

汇报关系示例:某客服任务,Agent执行 → 另一个Agent初审(通过率>95%自动过) → 人类DRI抽审5% → 重大异常升级到团队会议。

4.4 集体导向:人类与Agent协作文化

火箭模型强调拒绝独行侠AI原生团队需要拒绝只信任自己手写代码,不信任Agent输出的人类成员。建立协作文化的具体做法:

配对编程AI版本:人类与Agent共同完成任务,人类负责意图定义和最终审核,Agent负责生成初稿。

Agent使用率公开:每个人类成员的“Agent调用次数作为团队协作指标之一,但不是强制考核,而是用于识别培训机会。

4.5 奖励机制:混合激励(Token预算 人类认可)

激励数字员工(Agent

Agent没有情感,不需要奖金。但需要资源激励:高性能Agent获得更多Token配额、更高优先级算力、更少的速率限制。

通过Evals排行榜:哪个AgentEvals通过率最高、覆盖边界最多,就能获得更多调用机会(类似数字员工晋升)。

激励人类成员

“AI编排能力纳入晋升考核。例如:成功将某个工作流自动化并转移给Agent,节省的人力时间折算为创新积分,可兑换培训或项目主导权。

设立人机协作奖:奖励那些设计出高效人-Agent协作流程的成员。

关键原则:不能因引入Agent而裁撤人类。必须承诺自动化释放的时间100%用于更高价值工作。否则无人愿意主动自动化。

五、组件四:Norms(规范)——人与AI如何沟通、问责、开会、迭代?(重点)

本质不变:团队仍需建立会议、沟通、决策、责任、自我调整五大规范。但规范的对象从扩展为-Agent”“Agent-Agent”

5.1 沟通规范:结构化Prompt + Evals作为通用语言

→Agent的沟通:必须使用结构化Prompt模板(包含角色、任务、格式要求、边界条件)。自由文本沟通只用于探索阶段,正式任务必须结构化。

Agent→人的沟通:必须遵循结论先行格式。例如:任务完成,通过率98%,失败案例为XXX,建议人工复核。

Agent↔Agent沟通:通过API协议,不涉及自然语言。所有协议版本纳入Git管理。

5.2 决策规范:RACI + 授权阶梯

明确AI可自主决策的范围(权威清单):例如退款<100元且风险分<0.3 → AI自主;其他转人工。

授权阶梯:随着Evals通过率提升,逐步扩大AI自主范围。每季度审查一次授权清单。

5.3 责任规范:问责链(Accountability Chain

AI出错时,谁负责?这是最敏感的问题。

问责链设计

1.第一责任AI本身(但AI无法被问责,所以转为修复Evals”)。

2.第二责任:编写该Evals的人类DRI。如果错误是因为Evals未覆盖边界案例,DRI负责补充测试用例。

3.第三责任:审批该授权的管理者。如果错误是因为授权范围过大,管理者负责收紧。

4.免责条款:只要人类按照规范操作(使用了正确的Evals版本、未越权),不追究个人责任。心理安全是勇气的前提

5.4 会议规范:人类只开异常会

站会消失AI自动生成异步状态报告,人类随时查看。

周会转型:不再同步进度,而是回顾Evals失败案例 + 讨论授权边界调整 + 人机协作流程改进

会议时长:核心团队每周不超过60分钟。其他时间都是异步 异常驱动。

5.5 自我调整规范:Evals回归测试驱动迭代

每次迭代:人类团队和Agent共同回顾过去周期的Evals失败记录。

规范更新:将新的边界案例补充进Evals,重新跑通全部回归测试。

版本管理:所有规范(Evals脚本、Prompt模板、授权清单)纳入Git,每次变更需经过-Agent联合Code Review”

六、组件五:Buy-in(认同)——“第一团队如何包含数字员工?

本质不变:认同 = 动机方向强度 集体效能感(我们能赢)。

操作手法变化:集体效能感的对象从人类团队扩展为+Agent混合团队。这引出一个关键问题:数字员工算第一团队成员吗?

6.1 数字员工的归属:作为工具成员,而非伙伴成员

火箭模型的第一团队忠诚指的是:当多个团队争夺成员的精力时,成员应优先投入本团队。对于数字员工,它们没有精力分配问题——它们可以同时服务于多个团队。因此,数字员工不应享有与人类同等的第一团队归属地位

更准确的定位是:数字员工是团队的高能动工具。人类成员需要对其建立操作信任——相信它在授权范围内能可靠执行,但在边界情况和异常面前,人类仍然拥有最终判断权。

6.2 建立对AI的集体效能感(我们(人类+AI)能赢

快速胜利:选择2-3个低风险、高频、AI明显擅长的任务(如周报生成、数据清洗),让AI1周内跑通,Evals通过率达到95%以上。公开庆祝。

透明度:展示AI的每一次成功和失败。失败时,不是指责,而是团队一起修复Evals。这强化了我们共同拥有这个系统的感知。

人类的价值重锚定:明确告诉团队——AI负责执行,人类负责定义边界、处理异常、做出价值判断。人类不是被替代,而是升维。

6.3 诊断问题(Buy-in健康度)

人类成员是否主动将任务交给AI,还是习惯性手动完成?

AI出错时,团队的反应是修复系统还是再也不信AI

成员是否认为+AI”的组合比纯人类更强?

七、组件六:Resources(资源)——预算人力算力与权威

本质不变:资源是团队取得成功的基石。火箭模型特别强调权威是最关键的资源。

操作手法变化

核心资源:算力(GPU时长)、Token配额、高质量数据、API速率限制取代人力编制成为最稀缺资源。

权威资源:必须明确列出“AI可自主决策必须人类审批的边界。没有清晰的授权清单,AI要么被锁死,要么失控。

具体操作

建立资源仪表盘:追踪Token消耗与业务产出的比例,识别低效Token”(例如反复调用同一错误Prompt)。

每季度审查权威清单,根据Evals通过率逐步扩大AI自主范围。

八、组件七:Courage(勇气)——敢于自我替代的组织保障

本质不变:勇气是团队信任与心理安全的结合体。

操作手法变化AI原生团队中,勇气的新内涵是敢于将核心任务交给AI,并接受AI的错误。这需要比传统面对冲突更大的胆量。

结构性保障(否则无人敢做):

1.领导者承诺:公开承诺无人因AI失业。自动化释放的人力100%用于内部创新或培训。

2.自动化失败免责:只要人类按照规范操作(使用了正确的Evals版本、未越权),AI决策失误不追究个人责任。

3.勇气审计:每季度匿名调研成员对AI的恐惧程度,识别制度障碍。

具体操作

每个季度举行一次自动化挑战赛,鼓励成员将最头疼的重复工作交给AI,胜出者获得额外算力配额。

设立自动化红利分享:员工每自动化一个工作流,节省的时间折算为创新积分,可兑换培训、项目主导权或额外假期。

九、组件八:Results(结果)——产出物系统自治能力

本质不变:结果是团队效能的终极标准,包括客户满意度、目标达成、经验学习、能力提升。

操作手法变化:增加新的衡量维度——系统自治能力:在无人干预下,人-AI混合系统能跑多远、跑多稳。

具体指标

无人工干预的平均运行时长(MTBO

异常平均修复时间(MTTR

Evals通过率(全量回归)

边界案例覆盖率(新增Evals数量/发现的新边界数量)

具体操作

每个迭代周期的结果必须包含系统改进指标,如Evals覆盖率提升5%、自动化比例提升10%

定期举行红队演练:模拟数据漂移、API故障等异常,测试系统自治能力。

十、结语:本质未变,操作手法必须重构

火箭模型的八个组件——情境、使命、人才、规范、认同、资源、勇气、结果——AI时代本质上一个都没有变。团队仍然需要外部认知、清晰目标、合适成员、协作规则、内在认同、必要资源、心理安全、以及可衡量的产出。

变化的是操作手法

人才从招人扩展到配置Agent集群

规范从会议纪要进化到“Evals即契约

认同从相信领导转变为相信人-AI闭环

资源从预算编制转变为算力与Token管理

勇气从面对冲突转变为敢于自我替代+组织兜底

结果从产出物转变为系统自治能力

其中最棘手也最有价值的问题,是数字员工如何融入第一团队。我的判断是:数字员工是工具成员,而非伙伴成员。人类不需要对AI产生情感归属,但需要建立操作信任。而操作信任只能通过持续的Evals验证和快速胜利来积累。

最终,AI原生团队的建设不是什么神秘的新范式,而是AI时代的工具,更扎实地做对火箭模型要求的每一件事。如果你能回答以下问题,你的团队就已经走在了正确的轨道上:

你的Agent集群有技能矩阵吗?

-Agent之间的沟通有结构化模板吗?

AI出错,问责链清晰吗?有人会因为自动化而失业吗?

你的团队成员是否认为我们(人类+AI)能赢