你有没有过这种感觉:问AI一个具体问题,它给你的答案听起来很专业、很流畅,但仔细一看——全是废话。
不是AI不懂,是AI太"懂事"了。它在努力给你一个"听起来对"的答案,而不是真正解决问题的答案。
这个区别,来自一个叫OpenClaw的项目。
01 为什么AI会"装"?
我用过很多AI工具,ChatGPT、Claude、国内的模型都试过。有一个规律越来越清晰:
当你问AI一个需要深度思考的技术问题时,它倾向于给你一个"完整的"答案,而不是一个"正确的"答案。
原因很简单——训练数据里充斥着大量"看起来很专业但其实很浅"的内容。AI学会了这种表达方式。
OpenClaw是一个AI助手框架,它的做法很有意思:它不给AI太多自由度。
它把AI的工作拆成6个步骤,每个步骤有明确的输入输出,有检查点,有验证机制。AI在每个步骤里只需要做好"这一件事",而不是端到端地输出一个完整答案。
用专业的话说,这叫"有限状态机控制"。用人话讲,就是给AI画一条窄路,让它别乱跑。
02 六部制:让AI各司其职
OpenClaw借鉴了中国古代的"三省六部"制度。
不是噱头,是认真的架构设计。
六部分别是:
吏部:任务调度,不做执行
户部:系统配置,不做建议
礼部:搜索研究,不做决策
兵部:代码开发,不做设计
刑部:质量审核,不做执行
工部:文档输出,不做分析
每个部门只做自己的事。吏部把任务拆了,交给对应部门;刑部最后把关,验收不通过就打回重做。
关键在于不信任。每个环节都假设其他环节可能出问题,所以每个环节都有验证。
听起来繁琐,但结果稳定得多。
03 一个具体例子
比如我要让AI帮我执行一个测试标准,这个标准有77页,包含17个测试项目。
如果让AI直接读PDF输出结果,大概率会:
漏掉某个测试的温度要求
把两个相似的测试参数搞混
给出一个"看起来完整但缺少关键判断条件"的描述
在OpenClaw的流程里:
礼部负责读PDF提取原始内容
兵部负责把内容整理成结构化参数表
刑部负责验证参数是否符合标准原文
工部负责输出到文档
每一步都有产出物,可以追溯,可以审查,可以修正。
最终拿到的文档,每个参数都来自原文,每个判断都有依据。
04 这件事为什么重要?
AI真正有价值的使用场景,不是让它帮你写一篇文章、回答一个常识问题。
而是:让它在某个专业领域,代替你去执行一个复杂的、标准的、不能出错的工作流程。
高压部件的电气测试、药物研发的数据分析、金融合规的文档审查——这些场景的共同特点是:标准明确、流程复杂、出错代价高。
在这种场景下,"AI看起来回答了"是不够的。必须"AI完整地、正确地执行了"。
所以工作流设计比模型能力更重要。
05 一点点方法论
如果你也在用AI处理复杂任务,有几个经验可以参考:
1. 不要让AI做端到端输出把任务拆成"输入→处理→验证→输出"四个环节,每个环节独立测试。
2. 验收比执行更重要设计工作流时,应该把60%的时间花在"怎么验证结果"上,而不是"怎么生成结果"上。
3. 记录要轻,追溯要准每个环节的产出物不需要完整,但必须有关键决策点和依据。这样出了问题可以回溯,而不是从头猜。
AI不会取代需要深度专业能力的工作。但会用AI的人,会逐渐取代不会用AI的人。
关键不是"用AI",是"让AI在它擅长的地方稳定输出"。
夜雨聆风