背景:一人带一群 Agent 干活,真正难的不是分工 先给判断:可靠性不是从群聊里长出来的 先问一句:你真的需要多 Agent 吗? 证据:多 Agent 的瓶颈常常不在模型,而在系统 四个外部校准器 封闭系统的三种坏味道 为什么封闭系统走不远 怎么设计一个不封闭的 Agent 系统 什么人能带一群 Agent 上线前的六问 结语与参考文献
背景:一人带一群 Agent 干活,真正难的不是分工
前段时间比较火的全民养虾热,似乎开启了一种新的工作范式,即一个人带领一群 agent 进行编程、写歌、作画、视频创作、文章创作、日常办公完成的时代。这种场景下:
1、没有这个带领的人,那群 agent 自己去搞会怎样,有智能上限么?2、需要人去带领、指挥和驱动,这个人应该具备怎样的技能才合格?3、他去指挥 agent 应该做到哪些动作才可以高质高效完成既定任务?4、Agent 集群能不能自我迭代,自我进化?
结论:Agent 集群能放大人的产能,但它不是一个会自动变好的小社会。没有外部目标、证据、反馈和责任人,它更像一间通宵亮灯的会议室:声音很多,产出也可能很多,但没人知道哪一句真的对,哪一步真的该做。
先给判断:可靠性不是从群聊里长出来的
多智能体 AI 助理的可靠性上限,不在 Agent 数量,而在外部校准能力。所谓外部校准,其实就是四件很朴素的事:
信息:系统有没有持续拿到新事实、新代码状态、新业务数据。 目标:系统知不知道自己在做什么,做到什么程度算赢。 验证:关键结论能不能交给测试、工具、来源或人来打分。 反馈:失败样本有没有回到模型、工具、流程和评测里。
这四件事少一件,Agent 群仍然能工作,甚至会显得很努力。它会拆任务,会互评,会投票,会复盘,会写出一大段很像结论的文字。但做得久了,它就会开始把旧信息、模糊目标和未经验证的猜测包装成确定答案。
这也是为什么“一个人带一群 Agent”里,人的价值没有消失,只是换了位置。人不是站在旁边鼓掌的观众,而是目标设定者、上下文提供者、质量裁判、风险负责人和迭代教练。少了这个角色,Agent 群可以忙,但很难可靠地赢。
零、先问一句:你真的需要多 Agent 吗?
在谈可靠性之前,先过一道门禁:这个问题真的需要多 Agent 吗?
Anthropic 在 Building Effective Agents 里给过一个很有用的判断:能用简单、可组合 workflow 解决的问题,就不要急着上 agentic 架构。Agentless 在 SWE-bench Lite 上也证明过,localization → repair → validation 这种清楚的三段式流程,可以用更低复杂度取得强竞争力。Princeton 的 AI Agents That Matter 更直接:不少复杂 Agent 在基准任务上没有明显超过 retry、warming、escalation 这些简单 baseline,但成本和延迟高很多。(见「Agent 工程与评测」)
多 Agent 不是先进性的标签。它是一种成本很高的组织方式,只有在任务边界模糊、子问题分布广、串行 workflow 明显太慢时才值得引入。
这一步不先答清楚,后面所有讨论都会跑偏。你以为自己在研究可靠性,其实只是在给一个本来不该存在的复杂系统补窟窿。
一、证据:多 Agent 的瓶颈常常不在模型,而在系统
几条研究线索指向同一个方向:多 Agent 能不能落地,通常不只取决于模型有多强,而取决于系统边界、协作协议和验证机制有没有设计好。
Berkeley 的 Why Do Multi-Agent LLM Systems Fail? 分析了 1600 多条多智能体执行轨迹,覆盖 ChatDev、MetaGPT、HyperAgent、AppWorld、AG2、Magentic-One、OpenManus 等框架,归纳出 14 类失败模式。很多失败不是模型完全不会,而是任务拆错了、Agent 之间信息没对齐、协作协议不清、验证缺失。(见「多智能体 LLM 系统」)
这点很关键。多 Agent 听起来像“多几个聪明人一起想”,工程上却经常变成“多几条误差传播链互相污染”。一个上游 Agent 的猜测,如果没有证据字段和校验门,下游很容易把它当事实继续推。最后错误不一定被稀释,反而被写得更完整。
Stoica、Zaharia 等人在 Specifications 里把 LLM 系统工程化的缺口概括为两类规格缺失:statement specification 和 solution specification。翻译成人话,就是两件事没写清楚:到底要做什么,以及怎样算做对。(见「Agent 工程与评测」)
这正是多 Agent 最容易被高估的地方。很多人以为多几个 Agent 互相讨论,就能自然逼近正确答案。但如果目标没写清楚、证据没接进来、验证不独立,讨论只会让系统更自信,不会让它更可靠。
所以这篇文章不是反 Agent。恰恰相反,我认为 Agent 会成为新的生产组织方式。只是它的可靠性不来自“数量更多”,而来自系统能不能持续接入外部校准。
二、四个外部校准器
前面那四件很朴素的事,落到工程上就是四个外部校准器。
系统可靠性可以粗略表达为这四个维度的函数:
可靠性 ≈ f(信息新鲜度, 目标清晰度, 验证强度, 反馈迭代速度)这个式子不是为了装数学。它只是提醒一件事:这四个变量更像乘法,不像加法。任何一项长期接近零,整体可靠性都会被拖下来。
值得停一秒看的是:这四件事都是工程问题,但今天主流 Agent SDK 里,只有“信息”这一维有 first-class API(tool use、retrieval、MCP)。目标、验证、反馈基本要业务方自己拼。如果一个 harness 真要把多 Agent 当成一等公民,这三个维度就不能继续留给 prompt 工程师手搓。
但工程上不能四件事平均用力。多 Agent 系统在不同阶段,瓶颈会换。
所以真正的系统设计不是“把四个维度都做满”,而是先问:现在塌的是哪一维?下一阶段最可能塌的是哪一维?
这句话比很多架构图都有用。因为多 Agent 系统最常见的浪费,就是在错误的阶段修错误的东西。明明问题是目标不清,却继续加检索;明明问题是验证不独立,却继续加 reviewer;明明问题是反馈没回流,却继续换模型。
还有一件事,四维之外:品味
四个校准器讲清了 Agent 群"可靠不可靠",但没讲"好不好"。
把人完全拿掉,让 Agent 自己跑,短期会很热闹:分工、互评、改稿、重试,甚至生成一套看起来很完整的流程。但它们撞到的不是技术墙,是品味墙。产出合格,平庸,不知道哪里"不对劲"——这个东西没法靠多接一根线解决。
所以一个人带一群 Agent,他真正不可替代的也不是"再写一段 prompt",是替系统兜住品味:决定什么算好,什么算"嗯,差点意思"。这一条今天没有任何 SDK 能产品化,也是为什么短期内"无人带的全自动 Agent 团队"听起来诱人,做出来的东西却普遍像 LinkedIn 文案。
三、封闭系统的三种坏味道
工程里最危险的不是 Agent 直接报错,而是它们把错误说得越来越完整。
1. 回声室:讨论越多,差异越少
多个同质 Agent 在同一上下文里反复交换观点,容易收敛到相似表达和相似判断。LLM 社交网络仿真已经观察到回声室和一致性偏置会在多轮交互中自发形成。(见「MAS 特有病理」)
工程识别信号:group chat 跑几轮之后,所有 Agent 都在用近似措辞重复近似结论,而没有引入新证据、新工具输出或新反例。
解法不是再加一个同款 Agent,而是引入异质信号:不同模型、外部检索、独立 verifier、红队角色或人工抽检。
对应维度缺失:信息供给断流。
2. 级联幻觉:上游猜测变成下游证据
在串行 pipeline 里,上游 Agent 的错误如果没有被标记为"不确定",下游就可能把它当成事实继续推理。错误经过多跳传递后不一定会被稀释,反而可能获得更高置信度。
这类错误沿交互拓扑扩散、稳态错误率受网络结构影响、不只取决于单个模型能力的现象,在 LLM 网络研究中已经被观察到。(见「MAS 特有病理」)
工程上的分界线很简单:凡是上游输出会被下游当作事实使用,就必须有证据字段、置信度字段或外部校验步骤。
对应维度缺失:验证供给断流。
3. 共识塌缩:多数票杀掉少数正确答案
多数投票只在"多数候选本来就更可能正确"的任务上可靠。复杂推理、代码修复、开放式分析里,正确答案常常先以少数派形式出现,朴素投票会把它过滤掉。
多 Agent debate 的研究显示,异构模型组合和结构化辩论有时能改善推理表现。关键不在"票多",而在"是否保留异议、是否有评审标准、是否能验证最终答案"。(见「多智能体 LLM 系统」)
聚合策略要从 majority vote 转向 review-based selection:让评审者根据证据、测试、约束和失败风险选择方案。
对应维度缺失:目标与验证双重断流。
三类失败共同说明:封闭的 Agent 交互无法替代外部供给。讨论、投票、互评都有价值,但它们不能替代新事实、清晰目标和独立证据。
这三种病不是 prompt 能治的。回声室要靠异质采样(不同模型、不同温度、不同检索源),级联幻觉要靠强制的不确定性字段,共识塌缩要靠 minority-preserving 聚合。这些应该是 harness 提供的原语,不是每个团队自己手搓一遍。
四、为什么封闭系统走不远
物理学里有一组结论很硬:孤立系统的熵不会自发减少;第二类永动机不可能造出来;生命之所以能维持有序,是因为它持续从外界摄入低熵能量、向外排放高熵废物——这是 Prigogine 的耗散结构理论,也是薛定谔在《生命是什么》里那句"生命以负熵为食"的来处。
把这组结论原样搬给 LLM 不严谨。模型权重不是热力学系统,已经训练好的模型不会因为时间流逝就自动变笨,权重里压缩的语言模式、常识、数学、工程套路很多都长期有效。"Agent 群会熵增"这种说法听起来很深刻,禁不起推敲。
但物理学的思路有两段可以严格对应到信息系统,而且早就被先哲讨论过。
第一段,Shannon 信息论的硬约束。 你能从内部讨论里榨出的互信息,永远不超过参与方已经知道的那部分;纯封闭的概率分布上做边际化,不会涌现出分布之外的新观测。多个 Agent 互相提问、互相评审、互相投票,本质上都是在已有联合分布里重新分配概率质量。这就是为什么群聊到第十轮的时候,所有 Agent 都在用更长的句子说同一件事——它们不是在变聪明,是在压缩已有信息的不同写法。
第二段,Wiener 控制论的硬约束。 一个系统要保持目标性,必须有反馈回路把"实际状态"和"期望状态"的偏差持续传回来。反馈一断,系统就没法纠偏。多 Agent 群在没有外部验证、没有用户回流、没有线上 metric 的情况下,是一个开环系统。开环系统在足够长的时间尺度下一定会和环境失配——这不是"可能",是"必然",是控制论六十年前就讲清楚的事。
把这两段合起来,可靠的 Agent 系统在结构上必须像耗散结构:持续从外界摄入新观测(RAG、工具、日志、人工标注),持续向外排放被验证或被淘汰的旧假设(评测、回归、迭代)。一个不和外界交换信息的 Agent 群,像一个不和外界交换能量的物理系统,它不会爆炸,但会慢慢滑向最大熵态——内部高度自洽,外部严重失配。
所以封闭系统走不远,不是因为 LLM 会"熵增变笨",而是因为 Agent 群作为一个系统,一旦离开信息的耗散结构,就停止了和真实世界的对话。Shannon 划出了上限,Wiener 给出了纠偏的必要条件,Prigogine 解释了为什么活的东西必须是开放的——这三件事在多 Agent 工程里,是一回事。
五、怎么设计一个不封闭的 Agent 系统
把前面的判断落到工程上,核心不是做一个更热闹的 Agent 群聊,而是给系统装上外部校准回路。
1. 先写规格,再谈自治
每个 Agent 任务都应该有两层 specification。
Statement specification 说明要做什么:
• 目标是什么。 • 输入和输出是什么。 • 哪些文件、系统、数据在范围内。 • 哪些行为禁止。 • 什么时候必须停下来问人。
Solution specification 说明怎样算做对:
• 必须通过哪些测试。 • 必须产生哪些证据。 • 哪些引用、日志、diff、截图或运行结果可以作为证明。 • 失败时如何降级。
一个可执行模板:
task: statement_spec: goal: "修复支付回调重复入账问题" scope: ["payment-service", "callback-handler"] constraints: ["不能改变对外 API", "必须保持幂等"] solution_spec: tests: ["PaymentCallbackIdempotencyTest"] evidence: ["回调日志", "订单状态机迁移记录"] acceptance: "重复回调 10 次只产生一笔账务流水" escalation: if_no_test_can_verify: "request_human_review" if_external_data_missing: "stop_and_report"这比"让几个 Agent 讨论一下"更接近工程系统。
2. 每条关键结论都要接外部锚点
关键结论至少要有一种外部锚点:
• 对事实判断:给出来源、时间、引用位置。 • 对代码判断:给出测试、类型检查、运行结果或 diff。 • 对业务判断:给出需求、规则、验收标准或人工确认。 • 对设计判断:给出约束、权衡和不可接受方案。
没有锚点时,系统应该降低置信度,而不是用更长的语言把空话包装起来。
顺便说一句:confidence 和 evidence 这两个字段,应该是 Agent 输出的一等公民,而不是每个团队在自己的 response schema 里手搓一遍。今天写代码的人都知道这个体验有多原始——你想让下游 Agent 区分"事实"和"猜测",得自己定义 JSON schema、自己写 parser、自己做兜底。这件事不该在用户侧解决。
3. 把 Agent 通信改成结构化契约
自然语言适合解释,不适合承载所有状态。Agent 之间传递关键结果时,应该尽量结构化:
finding: claim: "重复入账来自 callbackId 未参与幂等键" confidence: 0.78 evidence: - "PaymentCallbackService.java diff" - "PaymentCallbackIdempotencyTest 失败日志" uncertainty: - "尚未确认历史数据是否存在脏状态" next_action: "补唯一索引或状态机 CAS"下游能区分事实、猜测、证据和不确定性,不会把上游推测当作 ground truth。
4. 用评审替代朴素投票
多数投票适合边界清楚、候选独立、正确答案分布占多数的任务。复杂工程任务更适合:
• 生成多个候选方案。 • 保留少数派方案。 • 让评审者按证据、约束、风险和可验证性打分。 • 最终方案必须通过测试或人工验收。
"共识"不是目标,"可证明地更好"才是目标。
5. 控制拓扑与新鲜度
拓扑决定错误怎么跑,新鲜度决定旧结论会不会被当成新证据。两者共同决定下游拿到的东西是否可信。
多 Agent 系统不是越全连接越好。全连接 group chat 会把错误快速广播给所有节点。更稳的结构通常是:
• hub-spoke:一个协调者分发任务,子 Agent 独立工作,最后集中评审。 • pipeline with gates:每一阶段有明确输入输出和验证门。 • debate bracket:只在关键决策处引入对抗讨论。 • red-team reviewer:固定一个角色只负责找反例、失败路径和证据缺口。
事实也有保质期。库存、金融行情、组织架构、API 文档、线上配置、法律政策的过期速度完全不同。关键信息至少记录来源、进入系统的时间、上次验证时间和置信度。时效性强的领域,旧知识可以做背景,不能做最终证据。
6. 监控四个维度,而不是只看成功率
上线后的 MAS 至少要监控这些指标:
只看"任务完成率"时,系统会倾向于提前给出漂亮答案,而不是暴露不确定性。这个坑我自己踩过:指标把团队带偏,半年后才意识到模型其实在学"如何让监控看起来正常"。
组织层:三个 owner
四个维度不会自动维护。规格没人写,statement_spec 永远是空文档;验证没人设 gate,测试执行率永远上不去;workflow 没人迭代,老错误就会反复出现。任何一个打算长期运营 MAS 的团队,至少要明确三个角色:
• Spec owner:负责目标维度,决定任务边界、成功标准、澄清和升级规则。 • Verification owner:负责验证维度,决定哪些任务允许 Agent 自证,哪些必须过外部 gate。 • Iteration owner:负责反馈维度,把失败类型沉淀成评测、模板、路由规则和工具改进。
信息维度通常已经有工程负责人(RAG / 工具平台),不另设。
没有 owner 的维度会先塌。这是四个校准器在组织层面的对应:一个维度长期无人负责,整个系统都会被它拖下去。
六、什么人能带一群 Agent
如果未来真是一人带一群 Agent,人的价值不会消失,只是换了位置。他不再是每一行代码、每一句歌词、每一帧画面的直接生产者,而是系统的指挥者。
最稀缺的从来不是会写 prompt。Prompt 只是键盘。真正稀缺的是判断:什么问题值得做、什么结果算好、什么证据能信、什么时候该停。把"指挥"说具体一点,它不是在群聊里喊"再优化一下",至少包含八个动作:
写任务契约:目标、范围、禁止事项、输入输出、验收标准先写清楚。 补上下文:把代码、资料、样例、反例、历史约束喂进去,不让 Agent 猜。 选拓扑:简单任务走 workflow;复杂任务才拆 Agent;关键决策才上 debate 或 red team。 分配证据责任:每个子 Agent 不只交结论,还要交来源、日志、diff、测试或截图。 保留少数派:不要让多数票直接杀掉反直觉但可能正确的方案。 设验证门:测试不过、引用不可追溯、人工验收没过,就不能宣布完成。 做最终取舍:在成本、风险、质量和时间之间拍板。这个责任不能丢给 Agent。 沉淀失败模式:把这次踩坑写进 eval、模板、规则或工具链。否则只是又忙了一晚。
这八个动作做不到,所谓“带一群 Agent”就会退化成“让一群 Agent 自己卷”。看起来像管理,其实是放羊。
Agent 集群能自我迭代吗?
能,但必须加限定词:在外部评测和真实反馈约束下,Agent 集群可以局部自我迭代;在封闭循环里,它不能可靠地自我进化。
比较稳的自我迭代分三层:
真正危险的是把 L1 当 L3。一个 Agent 发现自己错了,然后让另一个 Agent 改提示词,再让第三个 Agent 宣布"系统进化了",这不是进化,是自我叙事。
自我迭代成立的条件很朴素:改完以后,必须在一个它不能随便篡改的外部标准上变好。没有这个标准,所谓进化只是输出变多、话术变顺、错误藏得更深。
值得提一句的是产品形态。今天能买到的 agent platform 基本都停在 L1:你能换提示词、换计划、加 reviewer。L2 需要把"评测集 + 失败样本库 + 路由规则"做成产品,eval 不再是研究环节而是开发环节。L3 需要把生产反馈接回训练或微调循环——这件事谁先做出可用的产品,护城河就在谁那。光卷模型分数和卷上下文窗口都不够,那都是 L0。
七、上线前的六问
一个多智能体 AI 助理上线前,至少要回答:
如果没有人介入,这群 Agent 最可能在哪一步跑偏? 每个关键结论从哪里获得外部证据? 每个关键动作由什么测试、工具输出或人工标准验证? 当信息、目标、验证或反馈任一维度断供时,系统如何降级? 当前系统处在哪个阶段、当期瓶颈是哪一维?下一阶段最可能塌的是哪一维? 系统的自我迭代依据是什么?评测集、线上反馈还是人工复盘?
答不上这六个问题,它就不是可运营的 AI 助理系统,只是一个演示效果很好的自动化脚本。
结语
多 Agent 的诱惑很直接:一个普通人,背后带着一群不会累的执行者,白天写业务,晚上写歌,顺手出图、剪视频、做方案。
这个未来大概率会来。但它的核心不是"人被替代",而是"人被迫升级成指挥者"。模型越强,这件事越不会自动发生,只会变得更隐蔽——一个看起来非常合理的错误答案,比一个看起来不靠谱的正确答案,更难被发现。
对做模型的人来说,下一步不是再卷分数,是把目标、验证、反馈这三个维度做成 first-class API。对做平台的人来说,你的产品不是更聪明的 agent,是让人更容易把判断接进去的 harness。对带 Agent 干活的人来说,你要练的不是 prompt,是把"想要一个好结果"翻译成一组可执行、可验证、可改进的契约。
未来最有价值的人,不是亲手做完所有事的人,也不是放任 Agent 自己跑的人,而是那个能把目标、证据、反馈和责任持续接入 Agent 群的人。
他不一定产出每一个 token。但他决定哪些 token 算数。
参考文献
多智能体 LLM 系统
• Cemri, M., Pan, M. Z., Yang, S., Agrawal, L. A., Chopra, B., Tiwari, R., Keutzer, K., Parameswaran, A., Klein, D., Ramchandran, K., Zaharia, M., Gonzalez, J. E., & Stoica, I. (2025). Why Do Multi-Agent LLM Systems Fail? arXiv:2503.13657. • Du, Y., Li, S., Torralba, A., Tenenbaum, J. B., & Mordatch, I. (2023). Improving Factuality and Reasoning in Language Models through Multiagent Debate. arXiv:2305.14325. • Hegazy, M. (2024). Diversity of Thought Elicits Stronger Reasoning Capabilities in Multi-Agent Debate Frameworks. arXiv:2410.12853.
Agent 工程与评测
• Anthropic. (2024-12-19). Building effective agents. • Kapoor, S., Stroebl, B., Siegel, Z. S., Nadgir, N., & Narayanan, A. (2024). AI Agents That Matter. arXiv:2407.01502. • Xia, C. S., Deng, Y., Dunn, S., & Zhang, L. (2024). Agentless: Demystifying LLM-based Software Engineering Agents. arXiv:2407.01489. • Stoica, I., Zaharia, M., Gonzalez, J. E., et al. (2024). Specifications: The Missing Link to Making the Development of LLM Systems an Engineering Discipline. arXiv:2412.05299.
MAS 特有病理
• Gu, C., Luo, L., Zaidi, Z. R., & Karunasekera, S. (2025). Large Language Model Driven Agents for Simulating Echo Chamber Formation. arXiv:2502.18138. • Wang, C., Liu, Z., Yang, D., & Chen, X. (2024). Decoding Echo Chambers: LLM-Powered Simulations Revealing Polarization in Social Networks. arXiv:2409.19338. • Cisneros-Velarde, P. (2024). On the Principles behind Opinion Dynamics in Multi-Agent Systems of Large Language Models. arXiv:2406.15492. • Jain, A., Krishnamurthy, V., & Zhang, Y. (2025). Collaborative QA using Interacting LLMs: Impact of Network Structure, Node Capability and Distributed Data. arXiv:2511.14098.
夜雨聆风