最近关于OpenClaw的讨论明显降温,是不是这类Agent走不通了?这件事我不把它简单归结为“产品不行”或者“路线失败”,我认为OpenClaw把一个一直被忽略的问题提前暴露了出来,那就是当AI开始从“会回答”走向“会做事”,整个技术和业务体系的复杂度,是成倍上升的。
OpenClaw之所以在一开始引发关注就是因为它更接近真实工作场景,能拆解任务、能调用工具、能跨系统执行。问题也恰恰出在这里,一旦进入执行层,很多原本在对话阶段不重要的问题,会突然变得非常关键,比如权限边界、操作可追溯性、异常处理、以及最现实的算力和调用成本。
这也是为什么大模型厂商会对Agent的使用方式做出限制,这是系统层面的自我保护。一个可以自主调用工具、持续运行任务的Agent,如果缺乏约束,本质上就是一个高频消耗资源、且行为不完全可预测的系统组件。在实验环境里这很有价值,但在生产环境中,这种不确定性必须被收敛。
OpenClaw安全问题是关键风险,但从实际经验来看,更大的挑战并不只是“有没有漏洞”,而是“能不能控制”。传统系统的问题大多发生在规则之外,而这类通用Agent的问题是发生在规则之内,因为它的行为不是写死的,而是根据上下文动态生成的。这就意味着同一个任务可能出现不同路径,同一个输入可能触发不同操作,系统的稳定性不再完全由代码决定,而与数据、上下文、甚至历史状态相关。
从这个角度看,OpenClaw的降温是一个阶段性的信号,Agent正在从“能力验证”进入“工程化落地”的阶段。前一阶段关注的是“能不能做”,而现在开始面对的是“怎么稳定地做、可控地做、规模化地做”。这两件事之间,不存在自然过渡,中间需要补一整套工程体系。
对企业来说,如果没有边界设计和治理能力,Agent越强,反而越难用,反而是那些任务边界清晰、规则相对稳定的,更容易跑出效果,比如RPA。
所以与其讨论OpenClaw是不是“不行了”,不如换一个问题,当AI参与业务执行时,我们有没有准备好一套与之匹配的运行方式。过去的数据和系统,是为“人来用”设计的;现在逐步变成“机器来执行”,很多默认前提都会发生变化,就像我前一篇文章提到的,在AI时代下,传统的数据治理已死,一切都要按新的来。
夜雨聆风