一个 AI Agent 系统真正危险的地方,往往不是它会不会“想”,而是它在执行和记录任务时,悄悄留下了什么。OpenClaw 这次修掉的关键漏洞,问题就出在这里。
表面上看,这是 task_runs 日志里的一个安全缺口;但往深一点看,它暴露的是 AI Agent 工具链最容易被忽略的一层:很多人把注意力都放在模型输出上,却没意识到,执行链路和日志系统本身也会成为新的敏感信息出口。
一、问题不是日志太多,而是日志记得太真
这次被修复的核心问题,出在 task_runs 对任务执行细节的记录方式上。它原本承担的是一种“黑匣子”角色:记录任务输入、工具调用、中间结果和执行轨迹,方便排查问题、回放过程、分析失败原因。对 Agent 系统来说,这种能力本来很重要。
但问题恰恰在于,日志记录一旦追求“完整”,就很容易顺手把不该留下的内容也一起存进去。比如 API Key、数据库连接串、访问令牌、授权凭证,只要它们出现在任务上下文里,就可能顺着执行链一路流进 task_runs。日志本来是为了方便排障,结果却可能变成最容易被检索、导出和复用的敏感数据池。
二、为什么这个问题比看起来更严重
单看“日志里有敏感信息”这句话,很多人第一反应可能还是:那就注意别把密钥塞进去。但真正麻烦的地方在于,现实环境里,任务执行过程几乎不可能完全不接触敏感信息。自动化流水线会用到仓库凭证,数据库任务会用到连接口令,第三方 API 调用会带访问令牌,部署脚本还可能触发云服务授权。只要系统没有默认做脱敏和隔离,风险就不是偶发,而是结构性的。
▸ 在多租户环境里:如果不同用户共用一套服务,日志访问边界一旦做得不严,别人任务里留下来的敏感信息就可能被横向读到。
▸ 在 CI/CD 场景里:高权限任务一旦把执行上下文写进日志,泄露的往往就不只是 AI 平台密钥,还可能是仓库权限、数据库账号和部署凭证。
▸ 在外部日志同步场景里:如果这些日志继续被同步到外部检索服务,影响范围就会从“系统内部可见”扩大成“更多系统可见”。
也就是说,这不是一个“某个字段没处理干净”的小失误,而是一个非常典型的 Agent 工具安全问题:系统越强调自动化、可观测、可回放,越容易在另一个维度上扩大暴露面。
三、这次修复值得肯定,但也提醒了一个新常识
OpenClaw 新版已经对这个问题做了修复,方向也很明确:默认对敏感字段做脱敏,同时给出清理已有日志的处理方式。从响应速度看,这次修补是合格的,至少说明团队对安全问题的优先级判断没有拖泥带水。
但比补丁本身更值得记住的是,这件事其实帮所有做 AI Agent 系统的人补了一课:以后判断一个 Agent 平台是否安全,不能只看模型会不会胡说,也不能只看工具权限是不是受限,还要看执行链路有没有留下过多可复用痕迹。日志、回放、任务记录、审计接口,这些过去常被视作“工程能力”的部分,已经在今天变成真正的安全边界。
四、真正该调整的,是对 Agent 风险的理解方式
很多团队在引入 AI Agent 时,默认还是沿用旧思路:担心的是模型幻觉、越权执行、错误操作。但随着系统越来越复杂,另一类风险会越来越突出——模型本身未必直接出错,真正出问题的是围绕它建立起来的执行基础设施。
这次 task_runs 漏洞之所以值得重视,就因为它提醒了一件很现实的事:AI 工具的风险,不只是“它说了什么”,还有“它记下了什么”“它暴露了什么”“它让别人能复用什么”。对企业和开发团队来说,后面真正要建立的,不只是提示词层面的安全意识,而是一整套面向 Agent 执行链的默认安全设计。
如果一个 AI Agent 系统的日志能完整还原任务过程,那它就必须默认把“完整记录”和“默认安全”一起设计进去。否则,最方便排查问题的地方,迟早也会变成最方便泄露信息的地方。
夜雨聆风