OpenClaw 爆火背后:AI Agent 正在进入执行层
2026 年 4 月,在 TED2026 上,Peter Steinberger 讲了一件很多人还没有完全意识到的事:AI 的阶段,已经在变了。
过去两年,我们讨论的是模型更强、生成能力更好、多模态出现;但这场演讲真正指向的是:AI 正在从生成内容,进入执行任务。
他用了一个很直白的比喻:The lobster is loose。这不是情绪表达,而是一个判断:这类系统一旦进入现实世界,就不可逆。
一、 问题的本质:AI 是工具,还是执行者
理解 OpenClaw,关键在一个区分:AI 是被调用,还是被委托。
过去的 AI 本质是工具:你问,它答;你输入,它生成结果。控制权始终在每一步操作上。但 AI Agent 的结构不同:它可以拆解任务、调用工具、连续执行、在失败后调整路径。
这意味着一个本质变化:人类不再参与每一步,而是只定义目标。这不是产品升级,而是交互范式的彻底改变。
二、 能力结构变化:从会不会做,到让谁去做
OpenClaw 被广泛讨论,不是因为它写代码更强,而是因为它改变了一个关键门槛:做产品这件事的进入方式。
过去的路径是:idea → 找人 → 开发 → 测试 → 上线;现在开始变成:idea → Agent 执行 → 迭代 → 结果。这带来一个非常具体的变化:能力的核心,从执行能力转向任务定义能力。
-
工程师:从写代码转向设计系统与管理 Agent
-
产品经理:从写 PRD 转向直接驱动产出
-
个体创作者:从不会做转向可以做
生产力开始从组织流向个人。
三、 风险结构变化:从生成错误,到执行后果
Steinberger 在演讲中点了一件更关键的事:风险正在迁移。
过去 AI 的风险是输出错误或内容不当;但 Agent 模式下,问题变成:它调用了什么系统、执行了哪些操作、影响了什么结果。
换句话说:AI 的影响从信息层进入现实层。执行错误的责任归属、Agent 权限如何控制、多 Agent 系统如何避免失控,将成为新的课题。这也是为什么 OpenClaw 选择开源路径:在复杂系统里,透明是少数可行的安全手段之一。
四、 更深一层:软件正在从工具变成过程
如果把这件事放到更大的技术周期里,它指向一个更底层的变化:软件正在从静态产品变成动态系统。
过去的软件是写好、发布、使用;现在逐渐变成定义目标、自动生成、持续调整。这意味着:软件不再只是被使用的工具,而是参与执行的主体。
五、 为什么这是现代科幻小说 in the making
这件事真正像科幻的地方,不在于 AI 会写代码,而在于:人类开始把行动权外包给机器。
在过去,自主代理、自我导向系统、机器决策闭环是典型的科幻设定。而现在,这些东西在 GitHub 上开源,被开发者调用,正在进入真实业务流程。
一句话总结:科幻不是预测未来,而是提前描述现实。
六、 对科技从业者的三个实际影响
-
产品层:我们需要开始问一个更现实的问题:产品会不会被 Agent 直接绕过?如果用户可以用 Agent 完成同样的事,产品价值就需要被重新定义。
-
能力层:未来的分水岭,不再是你对某个软件有多熟练,而是你能不能像一个交响乐指挥家一样,编排并调度多个 Agent 协作完成复杂的商业目标。
-
机会层:两个方向值得关注:Agent 基础设施(权限、调度、安全)以及 Agent-native 产品(为 Agent 设计,而不是简单接入 AI)。
最后
OpenClaw 的意义,不在于它是一个更强的工具,而在于它改变了一个默认前提:做一件事,不再需要人类亲自完成。
Steinberger 的判断可以翻译成一句更直接的话:AI 已经开始在现实世界行动。
接下来真正的分化,不在模型能力。而在于两类人: 一类人在继续使用工具,一类人在开始调度 Agent。差距,会在这一层被拉开。
夜雨聆风