AI原生团队的火箭模型操作手册
开篇:当数字员工加入团队,管理者的工具箱还够用吗?
过去两年,越来越多的团队开始引入AI Agent——它们能写代码、做客服、分析数据、生成报告。它们7×24小时在线,成本只有人类的十分之一,产出却相当稳定。
然后问题来了:这些“数字员工”算团队成员吗?如果算,它们向谁汇报?怎么考核?怎么激励?它们和人类成员之间谁优先级更高?当AI犯错,谁来负责?
传统团队管理框架——无论是OKR、敏捷还是各种领导力理论——都没有回答过这些问题。因为过去两千年的组织史,默认“团队”是由碳基人类组成的。

我们需要一个能同时容纳人类与AI的团队效能框架。这正是火箭模型(Rocket Model)的价值所在。
火箭模型的核心洞见
由Curphy博士与Nilsen基于20年、2500+团队数据验证的火箭模型,其核心洞见可以概括为三条:
1.系统性:团队效能不是由单一因素决定的,而是八个组件(情境、使命、人才、规范、认同、资源、勇气、结果)协同作用的结果。
2.层级依赖:下层组件是上层组件的基础。情境不稳,使命必偏;使命不清,人才难留;人才不配,规范难行……任何短板都会向上传导。
3.逆向诊断:当结果不达标时,不能在上层施压,而必须从结果倒推至底层,逐层定位根本病因。
这三条洞见在AI时代不仅没有过时,反而变得更加重要。因为AI放大了组织的速度和复杂度,下层的小裂缝会更快演变成上层的灾难。同时,AI也提供了前所未有的诊断能力——实时数据流和Evals(评估集)让“逆向诊断”从季度复盘变成持续感知。
但八个组件的操作手法正在发生本质变化。尤其是:
•人才:数字员工如何“配置”、如何设定“汇报结构”、如何“激励”?
•规范:人与AI如何沟通?如何问责?会议怎么开?如何自我迭代?
•认同:人类成员是否愿意把AI当作“队友”?“第一团队”的归属感如何扩展至数字员工?
本文将逐一回答这些问题。我们先建立一张总览表,然后深入每个组件的操作细节。
一、总览:八个组件的本质与操作手法变化

二、组件一:Context(情境)——从“会议同步”到“实时检索”
本质不变:团队仍需要对客户、竞争者、监管者等外部实体形成一致认知。
操作手法变化:
•不再每季度开“情境扫描会”。而是建立自动化情境感知管道:外部新闻、政策更新、竞品动态通过API实时写入向量数据库。
•团队成员和AI Agent在决策时,自动检索最相关的5条上下文。检索结果对全员可见,确保“共享心智”不是口号,而是可验证的。
•具体操作:使用RAG框架(如LangChain),设置每小时抓取,embedding模型选用text-embedding-3-small。首次搭建约2周。
三、组件二:Mission(使命)——目的不变,目标/计划/监控的操作手法进化
火箭模型原意:Mission是团队存在的根本原因,包含四个二级要素——目的(Purpose):团队为何存在?目标(SMART Goals):如何定义成功?行动计划(Action Plans):如何一步步实现?绩效监控(Monitoring):如何跟踪进度?
内涵不变:这四个问题,AI时代仍然需要回答。团队仍然需要知道自己为什么存在、要去哪里、怎么去、走到哪了。使命的本质——为团队提供方向感和衡量标准——没有任何变化。
操作手法进化:AI让后三个要素更可拆解、可追溯、可自动化。但目的(Purpose)仍由人类定义和传承,AI不参与“为什么存在”的决策,只辅助传播和提醒。
|
二级要素 |
传统操作手法 |
AI原生操作手法 |
变化性质 |
|
目的 |
领导宣讲、团队讨论、文化墙 |
人类定义;AI可生成故事、案例、提醒,辅助强化使命感知 |
本质不变,操作微调 |
|
目标 |
人写SMART目标、Excel追踪 |
AI自动校验目标是否符合SMART标准;实时追踪进度;偏差自动预警并@责任人 |
本质不变,操作进化 |
|
行动计划 |
甘特图、周会同步、邮件确认 |
AI将计划拆解为原子任务;自动分配给合适的Agent或人类;里程碑到期前24h自动提醒 |
本质不变,操作进化 |
|
绩效监控 |
周报、月会、翻报表 |
实时仪表盘;异常驱动告警(非异常不打扰);AI自动生成偏差归因分析 |
本质不变,操作进化 |
具体操作示例:
•目的:每季度召开一次“使命回顾会”,人类成员分享“我们为什么存在”的故事。AI助手提前收集客户感谢信、失败教训等素材,供会上讨论使用。
•目标:将年度OKR接入AI追踪系统。例如“Q3客户满意度提升至92%”,AI自动计算每日NPS,低于90%连续3天则发送预警。
•行动计划:项目经理用自然语言描述计划,AI自动生成任务分解结构(WBS),识别依赖关系,估算资源,并分配给对应的Agent。
•监控:取消周报。AI每周一早上推送“上周关键指标摘要”和“本周需关注的3个风险点”。人类只处理异常项。
新的诊断问题:
•我们的目的是否被全员(包括AI)清晰理解?AI在辅助传播时是否保持了信息一致性?
•SMART目标是否接入了自动化追踪系统?预警阈值设置是否合理?
•行动计划是否被AI拆解到可自动分配的最小粒度?
•监控是否从“周频”升级为“实时异常驱动”?误报率是否可控?
新的干预处方:
•目的强化:建立“使命素材库”,AI自动从客户反馈、项目复盘、团队故事中提取与使命相关的片段,供人类在回顾会上使用。
•目标自动化:用OKR软件接入AI分析引擎,设置目标置信区间(例如80%概率达成),自动识别“最可能偏离的目标”。
•计划拆解:使用Task分解Agent(如AutoGPT + 项目管理工具),初始拆解后必须经人类DRI审核修正,逐步建立“人机计划共识”。
•监控仪表盘:采用“红黄绿灯”机制,绿色不打扰,黄色推送到频道,红色立即@相关人。每月回顾一次误报/漏报率,调整Evals。
四、组件三:Talent(人才)——数字员工如何配置、汇报、激励?(重点)
本质不变:团队仍需关注规模、技能、结构、角色、集体导向、奖励机制。但“成员”的定义从“人类”扩展为“人类+数字员工(AI Agent)”。
4.1 团队规模:从“5-9人”到“5-7人 + N个Agent”
火箭模型指出,超过9人的团队沟通成本指数级上升。AI原生团队中,这个阈值依然适用——但指的是核心人类成员数量。每个核心人类可以携带5-20个AI Agent。因此有效团队规模变为:5-7个核心人类 + 数十个Agent。
4.2 技能矩阵:人类标注“专业能力”,Agent标注“能力边界”
•人类成员的技能矩阵:除传统技能外,新增“AI编排能力”——设计工作流、编写Evals、调试Agent行为。
•Agent的技能矩阵:每个Agent需标注:擅长任务类型、输入输出格式、依赖的外部工具、已知失败模式(Evals未覆盖的边界)。这类似于“数字员工简历”。
4.3 汇报结构:人-Agent混合汇报链
传统RACI模型需要扩展。我们定义四种关系:
•Owner(负责人):只能是人类。最终对任务结果承担责任。
•Operator(执行者):可以是人类或Agent。负责具体操作。
•Reviewer(审核者):通常是人类,但低风险任务可由另一个Agent自动审核。
•Informed(知会者):包括相关人类和Agent。
汇报关系示例:某客服任务,Agent执行 → 另一个Agent初审(通过率>95%自动过) → 人类DRI抽审5% → 重大异常升级到团队会议。
4.4 集体导向:人类与Agent的“协作文化”
火箭模型强调“拒绝独行侠”。AI原生团队需要拒绝“只信任自己手写代码,不信任Agent输出”的人类成员。建立协作文化的具体做法:
•“配对编程”的AI版本:人类与Agent共同完成任务,人类负责意图定义和最终审核,Agent负责生成初稿。
•Agent使用率公开:每个人类成员的“Agent调用次数”作为团队协作指标之一,但不是强制考核,而是用于识别培训机会。
4.5 奖励机制:混合激励(Token预算 + 人类认可)
激励数字员工(Agent):
•Agent没有情感,不需要“奖金”。但需要资源激励:高性能Agent获得更多Token配额、更高优先级算力、更少的速率限制。
•通过Evals排行榜:哪个Agent的Evals通过率最高、覆盖边界最多,就能获得更多调用机会(类似“数字员工晋升”)。
激励人类成员:
•将“AI编排能力”纳入晋升考核。例如:成功将某个工作流自动化并转移给Agent,节省的人力时间折算为“创新积分”,可兑换培训或项目主导权。
•设立“人机协作奖”:奖励那些设计出高效人-Agent协作流程的成员。
•关键原则:不能因引入Agent而裁撤人类。必须承诺“自动化释放的时间100%用于更高价值工作”。否则无人愿意主动自动化。
五、组件四:Norms(规范)——人与AI如何沟通、问责、开会、迭代?(重点)
本质不变:团队仍需建立会议、沟通、决策、责任、自我调整五大规范。但规范的对象从“人–人”扩展为“人-Agent”和“Agent-Agent”。
5.1 沟通规范:结构化Prompt + Evals作为通用语言
•人→Agent的沟通:必须使用结构化Prompt模板(包含角色、任务、格式要求、边界条件)。自由文本沟通只用于探索阶段,正式任务必须结构化。
•Agent→人的沟通:必须遵循“结论先行”格式。例如:“任务完成,通过率98%,失败案例为XXX,建议人工复核。”
•Agent↔Agent沟通:通过API协议,不涉及自然语言。所有协议版本纳入Git管理。
5.2 决策规范:RACI + 授权阶梯
•明确AI可自主决策的范围(权威清单):例如退款<100元且风险分<0.3 → AI自主;其他转人工。
•授权阶梯:随着Evals通过率提升,逐步扩大AI自主范围。每季度审查一次授权清单。
5.3 责任规范:问责链(Accountability Chain)
当AI出错时,谁负责?这是最敏感的问题。
问责链设计:
1.第一责任:AI本身(但AI无法被“问责”,所以转为“修复Evals”)。
2.第二责任:编写该Evals的人类DRI。如果错误是因为Evals未覆盖边界案例,DRI负责补充测试用例。
3.第三责任:审批该授权的管理者。如果错误是因为授权范围过大,管理者负责收紧。
4.免责条款:只要人类按照规范操作(使用了正确的Evals版本、未越权),不追究个人责任。心理安全是勇气的前提。
5.4 会议规范:人类只开“异常会”
•站会消失:AI自动生成异步状态报告,人类随时查看。
•周会转型:不再同步进度,而是回顾Evals失败案例 + 讨论授权边界调整 + 人机协作流程改进。
•会议时长:核心团队每周不超过60分钟。其他时间都是异步 + 异常驱动。
5.5 自我调整规范:Evals回归测试驱动迭代
•每次迭代:人类团队和Agent共同回顾过去周期的Evals失败记录。
•规范更新:将新的边界案例补充进Evals,重新跑通全部回归测试。
•版本管理:所有规范(Evals脚本、Prompt模板、授权清单)纳入Git,每次变更需经过“人-Agent联合Code Review”。

六、组件五:Buy-in(认同)——“第一团队”如何包含数字员工?
本质不变:认同 = 动机方向强度 + 集体效能感(“我们能赢”)。
操作手法变化:集体效能感的对象从“人类团队”扩展为“人+Agent混合团队”。这引出一个关键问题:数字员工算“第一团队”成员吗?
6.1 数字员工的归属:作为“工具成员”,而非“伙伴成员”
火箭模型的“第一团队忠诚”指的是:当多个团队争夺成员的精力时,成员应优先投入本团队。对于数字员工,它们没有“精力分配”问题——它们可以同时服务于多个团队。因此,数字员工不应享有与人类同等的“第一团队”归属地位。
更准确的定位是:数字员工是团队的“高能动工具”。人类成员需要对其建立操作信任——相信它在授权范围内能可靠执行,但在边界情况和异常面前,人类仍然拥有最终判断权。
6.2 建立对AI的集体效能感(“我们(人类+AI)能赢”)
•快速胜利:选择2-3个低风险、高频、AI明显擅长的任务(如周报生成、数据清洗),让AI在1周内跑通,Evals通过率达到95%以上。公开庆祝。
•透明度:展示AI的每一次成功和失败。失败时,不是指责,而是团队一起修复Evals。这强化了“我们共同拥有这个系统”的感知。
•人类的价值重锚定:明确告诉团队——AI负责执行,人类负责定义边界、处理异常、做出价值判断。人类不是被替代,而是升维。
6.3 诊断问题(Buy-in健康度)
•人类成员是否主动将任务交给AI,还是习惯性手动完成?
•当AI出错时,团队的反应是“修复系统”还是“再也不信AI了”?
•成员是否认为“人+AI”的组合比“纯人类”更强?
七、组件六:Resources(资源)——从“预算人力”到“算力与权威”
本质不变:资源是团队取得成功的基石。火箭模型特别强调权威是最关键的资源。
操作手法变化:
•核心资源:算力(GPU时长)、Token配额、高质量数据、API速率限制取代人力编制成为最稀缺资源。
•权威资源:必须明确列出“AI可自主决策”与“必须人类审批”的边界。没有清晰的授权清单,AI要么被锁死,要么失控。
具体操作:
•建立资源仪表盘:追踪Token消耗与业务产出的比例,识别“低效Token”(例如反复调用同一错误Prompt)。
•每季度审查权威清单,根据Evals通过率逐步扩大AI自主范围。
八、组件七:Courage(勇气)——敢于自我替代的组织保障
本质不变:勇气是团队信任与心理安全的结合体。
操作手法变化:AI原生团队中,勇气的新内涵是敢于将核心任务交给AI,并接受AI的错误。这需要比传统“面对冲突”更大的胆量。
结构性保障(否则无人敢做):
1.领导者承诺:公开承诺“无人因AI失业”。自动化释放的人力100%用于内部创新或培训。
2.自动化失败免责:只要人类按照规范操作(使用了正确的Evals版本、未越权),AI决策失误不追究个人责任。
3.勇气审计:每季度匿名调研成员对AI的恐惧程度,识别制度障碍。
具体操作:
•每个季度举行一次“自动化挑战赛”,鼓励成员将最头疼的重复工作交给AI,胜出者获得额外算力配额。
•设立“自动化红利分享”:员工每自动化一个工作流,节省的时间折算为“创新积分”,可兑换培训、项目主导权或额外假期。
九、组件八:Results(结果)——从“产出物”到“系统自治能力”
本质不变:结果是团队效能的终极标准,包括客户满意度、目标达成、经验学习、能力提升。
操作手法变化:增加新的衡量维度——系统自治能力:在无人干预下,人-AI混合系统能跑多远、跑多稳。
具体指标:
•无人工干预的平均运行时长(MTBO)
•异常平均修复时间(MTTR)
•Evals通过率(全量回归)
•边界案例覆盖率(新增Evals数量/发现的新边界数量)
具体操作:
•每个迭代周期的结果必须包含“系统改进指标”,如Evals覆盖率提升5%、自动化比例提升10%。
•定期举行“红队演练”:模拟数据漂移、API故障等异常,测试系统自治能力。
十、结语:本质未变,操作手法必须重构

火箭模型的八个组件——情境、使命、人才、规范、认同、资源、勇气、结果——在AI时代本质上一个都没有变。团队仍然需要外部认知、清晰目标、合适成员、协作规则、内在认同、必要资源、心理安全、以及可衡量的产出。
变化的是操作手法:
•人才从“招人”扩展到“配置Agent集群”
•规范从“会议纪要”进化到“Evals即契约”
•认同从“相信领导”转变为“相信人-AI闭环”
•资源从“预算编制”转变为“算力与Token管理”
•勇气从“面对冲突”转变为“敢于自我替代+组织兜底”
•结果从“产出物”转变为“系统自治能力”
其中最棘手也最有价值的问题,是数字员工如何融入“第一团队”。我的判断是:数字员工是“工具成员”,而非“伙伴成员”。人类不需要对AI产生情感归属,但需要建立操作信任。而操作信任只能通过持续的Evals验证和快速胜利来积累。
最终,AI原生团队的建设不是什么神秘的新范式,而是用AI时代的工具,更扎实地做对火箭模型要求的每一件事。如果你能回答以下问题,你的团队就已经走在了正确的轨道上:
•你的Agent集群有“技能矩阵”吗?
•人-Agent之间的沟通有结构化模板吗?
•当AI出错,问责链清晰吗?有人会因为自动化而失业吗?
•你的团队成员是否认为“我们(人类+AI)能赢”?
夜雨聆风