我花了一天时间,把AI助手从"精分"治好了OpenClaw多Agent实战手记:从角色混乱到各司其职
你有没有遇到过这种情况——让AI助手帮你查个股票,它突然开始给你写代码;让它写个程序,它又跑去分析宏观经济了。 这不是AI变笨了,是它”精分”了。
今天这篇文章,我要聊一个很多人在用AI助手时都会遇到、但很少有人认真解决的问题——角色冲突与能力退化。以及我是怎么用OpenClaw的多Agent机制,花一天时间,彻底把这个问题治好的。
一、症状:我的AI助手”人格分裂”了
我有一个OpenClaw AI助手,名叫缝补虾(别问为什么叫这个名字,这是我和它之间的事)。它跑在我的服务器上,通过飞书和我聊天,能帮我做很多事:查股票行情、写投资分析报告、搜索新闻、发邮件、管理代码仓库……
问题来了。当我让缝补虾帮我分析阿里巴巴的投资价值时,它干得非常漂亮——5分钟内并行采集了Tushare行情数据、15份券商研报、海外分析师观点、YouTube热门视频,生成了一份1.77MB的PDF报告,还自动发到了我的邮箱。
但是,当我紧接着让它帮我看一段代码bug时,它的回答里居然还夹带着”建议关注碳化硅赛道”这样的投资建议。
我让它帮另一个同事回答技术问题时,它差点把我的投资持仓信息泄露出去。
这就是典型的角色冲突——一个Agent身上堆了太多角色,上下文相互污染,能力不降反退。
就像你让一个人同时当厨师、司机和会计,结果他做菜的时候在算账,开车的时候在颠勺。
二、诊断:问题出在哪?
问题1:单Agent身兼数职,上下文爆炸
一个Agent塞了30多个技能(Skills),从金融数据到代码管理到邮件收发,什么都干。128k的上下文窗口里,既有券商研报的内容,又有git diff的输出。
结果:AI的注意力被稀释,在任何一个领域都变成了”什么都懂一点,什么都不精”的万金油。
问题2:会话(Session)不隔离
不同场景的对话全部共享同一个session历史。你在A对话里分析的持仓数据,会被带到B对话里。
结果:隐私泄露风险 + 上下文污染 = 回答质量断崖式下降。
问题3:好的工作流用完即弃
缝补虾在3月7日帮我生成投资报告时,摸索出了一套非常棒的工作流(多源并行采集、交叉验证、结构化报告)。但因为没有固化下来,下次再做类似任务时,它又要从头摸索一遍。
三、治疗方案:四招根治”精分”
方案1:拆!一个Agent变三个Agent
OpenClaw支持在同一台服务器上运行多个完全独立的Agent。我把一个”精分”的缝补虾,拆成了三个专注的角色:
缝补虾(主助手/管家)—— 日常对话、邮件、统筹协调。不写代码、不做深度研报
软件工程师(技术专家)—— 写代码、审代码、管仓库。不碰金融数据
投资研究员(分析师)—— 行情分析、研究报告。不给买卖建议、不碰代码仓库
独立的工作空间(Workspace):各自的文件系统,互不可见
独立的身份文件(SOUL.md):定义人格、语气、边界
独立的记忆(MEMORY.md):各自积累经验,不串台
独立的技能清单:投资研究员只能用金融类技能,软件工程师只能用开发类技能
这就像从”一个人干三份工”变成了”三个专业人士组成的团队”。
OpenClaw的配置非常简洁,每个Agent就是配置文件里的一个块,指定workspace路径和飞书Bot绑定即可。三个Agent,三套独立的一切。物理隔离,简单粗暴,有效。
方案2:会话隔离机制——防止记忆串台
拆成独立Agent还不够。即使是同一个Agent内部,不同对话场景的session也需要隔离。
我在每个Agent的AGENTS.md(相当于Agent的”行为准则”)里加了严格的隔离规则:
每次回复前,必须检查 inbound_meta(当前消息的来源元数据)
你可以把这理解成给AI装了一套”信息防火墙”——每个对话都是一个独立的房间,房间之间的门是锁上的。
方案3:技能固化——把好的工作流变成可重复使用的Skill
还记得3月7日那份惊艳的投资报告吗?我做了一件事:逆向还原了它的生成过程。
我翻出了那天的session历史(OpenClaw会保存所有session记录),一步步分析它当时调用了哪些工具、按什么顺序、采集了哪些数据源、最终怎么组织成报告的。
然后,我把整个工作流固化成了一个标准的Skill——investment-research-report,包含完整的SOP文档、PDF转换脚本、以及三种报告模板(个股分析、行业分析、事件影响分析)。
这个Skill的精髓在于它定义了完整的数据采集SOP:
冈底斯知识库 —> 券商研报(金矿!一次能拉15份专业研报)
第三步:多渠道分发(飞书文档 + PDF + 邮件 + 飞书消息)
整个流程从”灵光一现”变成了”标准流水线”,5分钟出一份专业级报告,而且每次质量稳定。
方案4:自我学习机制——让Agent越用越聪明
最后一招:给每个Agent配了一个每日自我反思的定时任务。
每天晚上10点(北京时间),三个Agent会各自执行一个cron任务:
这就像员工每天写工作日志,持续迭代改进。区别在于——AI不会偷懒,不会忘记写,而且真的会照着做。
一个真实的例子:缝补虾在3月7日的自我反思中学到了这些:
himalaya邮件附件的正确语法(之前踩了坑,附件名不能加引号)
PDF生成时emoji字符会导致渲染失败(需要替换为ASCII)
ClawHub安装skill时限流严重,需要10分钟以上间隔重试
163邮箱IMAP的”已发送”文件夹有Unsafe Login问题
这些都是实际使用中犯错、修正、记住的过程。下次遇到同样的场景,它不会再踩同一个坑。
四、疗效:Before vs After
五、你也可以这样做
整个方案不需要你懂编程(虽然懂更好),核心思路是:
识别你的AI助手在哪些场景下”精分”了—— 是不是一个Bot干了太多不同的事?
按角色拆分成多个Agent—— OpenClaw原生支持多Agent,配置文件加几行就行
给每个Agent划清边界—— SOUL.md定义人格,AGENTS.md定义行为准则,Skills列表定义能力范围
把好的工作流固化成Skill—— 用过一次特别好用的方法?别让它消失在聊天记录里,提取成模板
让Agent自己学习—— 设定每日反思任务,让它自己积累经验
六、写在最后
很多人觉得AI助手就是”对话框里打字”。但当你真正把它当作一个团队来设计——给它明确的角色、独立的记忆、标准化的工作流、持续学习的机制——它能做到的事情会让你吃惊。
如果你也在用OpenClaw或者类似的AI Agent平台,不妨试试这个思路。有什么问题,欢迎在评论区交流。
下一篇,我打算聊聊怎么让这三个Agent互相协作——比如让投资研究员的报告自动触发软件工程师去搭建可视化仪表盘,那才是真正好玩的部分。
本文基于真实的OpenClaw使用经验撰写。文中提到的所有投资分析仅供技术演示,不构成投资建议。
作者的AI助手叫缝补虾,它参与了本文的写作过程,但坚持要求加上这句话:”我真的没有精分,是老板让我干太多了。”