AI和管理学,骨子里是同一件事
让AI连续跑10小时,它变傻了、崩溃了、罢工了。
你以为是AI不够聪明?错。是你没有给它设计一套”不依赖记忆”的工作流程。今天这篇文章,管理学家看了沉默,AI工程师看了流泪。
很多人用Claude Code跑长任务,跑着跑着AI就变傻、甚至彻底罢工。
原因很简单:上下文窗口爆了。
但真正的问题不在窗口大小,而在——你让AI一个人扛下了所有。
今天分享一套让AI「无限续航」的系统级方案,叫Harness Engineering。它不只让AI干活,更能让它自我进化。
01核心原理:重置上下文

AI的记性是有限的。Anthropic官方给的思路是:把大任务拆碎,每次只让AI在一个全新的、干净的上下文里干一件小事。
错误做法
把所有需求一次性塞给AI。100个需求一起上,AI前面还记得住,后面就彻底混乱。
正确做法
拆解任务 → 独立循环执行 → 记录进度 → 下一个循环。每一步都在干净上下文里运行,AI永远只做一件事。
这像什么?像流水线工厂。每个工人只负责一道工序,做完传给下一个。产品一致性高,不依赖任何一个工人的「全能」。
02方案对比:Ralph循环 vs 多智能体

具体怎么实现?有两个方案:
方案A:Ralph循环
用Bash脚本写个while循环,每次强制重启一个新会话。简单粗暴,适合极客自己玩。缺点是:流程一复杂,脚本就变成了噩梦。
方案B:多智能体协同(推荐)
更灵活,更接近真实团队的工作方式。
主Agent(Coordinator):只负责调度和分配任务,绝不写代码——这样它的上下文永远干净,只有几行调度指令。
子Agent(Workers):计划Agent、开发Agent、测试Agent,各司其职。每个Agent独立运行、独立记忆,互不干扰。
你发现没有?这其实就是管理学里的「组织设计」。
03工作流设计:四步闭环

说说我自己跑通的实战工作流:
第一步
主Agent接收完整需求 → 交给计划Agent出排期。主Agent不参与分析,只当分拣员。
第二步
主Agent拿到计划 → 派给开发Agent写代码。只传文件路径,不传大段代码!路径只有几个字符,上下文永远不爆。
第三步
开发完 → 派给测试Agent找Bug。测试Agent会发现问题并报告。
第四步(关键)
Bug修复闭环:测试挂了?用resume参数唤醒同一个开发Agent修Bug——保留现场上下文,而不是开新号重头再来!
为什么要强调「同一个」Agent?因为它记得自己刚才改了什么,开新号会丢失这个上下文,修同一个Bug可能要反复多次。
04让AI自我进化的Secret Sauce

做到以上几步,AI已经能「续航」了。但要让AI真正越用越聪明,还需要两件事:
经验库:踩过的坑不再踩
建一个经验库文件(Lessons Learned)。每次踩坑,强制AI把错误写进去。下一次开发,先读这个文件,避免重复犯错。
这相当于企业的知识沉淀机制——个人会离职,但组织记忆永在。
文件通信:只传路径,不传内容
Agent之间只传递文件路径,不传递具体代码内容。主Agent的上下文永远只有几行字,永远不会爆窗。
这对应管理学里的「信息分层」原则——管理层不需要知道每个员工写的代码,只需要知道进度和问题。
这套系统我跑了一个通宵,生成了一个程序,质量还行。
真正的Harness不是让AI更聪明,而是设计一套不依赖AI记性的流程。
下次再遇到AI跑长任务就崩溃,别急着升级模型。先问自己一句:我的流程设计得像管理学吗?
夜雨聆风