导语|随着OpenClaw等技术把大模型从单纯的对话界面,延伸到现实世界的操作界面,AI的“执行力”正在取代“对话力”成为新的关注重点,这也意味着人机交互从“告知”阶段正式迈入“交付”阶段。
这不仅仅是效率上的提升,更深层次地带来了关于执行权限、安全边界以及系统可控性的核心讨论——智能体的价值,不再看它会不会永远不出错,而是看它能否在“计划-执行-反馈”的闭环里稳定落地,并让所有行动都处于可审计、可治理的框架之中。
本文特别邀请到智泊AI大模型公司资深顾问李维,他将深入分析这一转变会如何重构软件交互模式、释放生产力,同时揭秘下一阶段的竞争核心:怎样安全、可控地分配和掌控“执行权”,这也是决定智能体能否从极客的趣味工具,成长为驱动业务发展核心力量的关键。
作者简介

李维博士,是大模型公司的资深顾问,也曾担任出门问问工程副总裁,在自然语言处理(NLP)领域是资深架构师。他还曾任职科大讯飞AI研究院副院长、京东硅谷研究院主任科学家等重要职位。
在此之前,李维博士在硅谷舆情挖掘公司Netbase担任首席科学家长达十年,期间主导研发了覆盖18种语言的理解与应用系统,成为美国工业界NLP落地的标杆案例,也让公司稳居舆情监测(social listening)赛道的领先位置。
在担任Cymfony研发副总裁期间,他带领团队拿下第一届问答系统大赛冠军(TREC-8 QA Track),还作为项目负责人拿下17个小企业创新研究信息抽取项目(PI for 17 SBIRs)。
他1986年取得中国社会科学院语言研究所机器翻译硕士学位,2001年获得西蒙菲莎大学(Simon Fraser University)计算语言学博士学位,之后还被该校评为杰出校友。
引言
OpenClaw突然火了,表面看像是极客圈的一场狂欢,本质上更像是一次有标志性意义的“试爆”。 它没有训练新模型,也没有发明新算法,更没有在AI或者NLP的各项指标上刷出新纪录。
它做的事情简单甚至有点粗暴:直接把大模型的语言能力,接到真实世界的执行通道里——文件系统、终端命令、浏览器、邮箱,还有各种各样的API。 这么一来,AI就不再只会“说话”,而是开始真正“做事”了。
也正是因为能“做事”,OpenClaw就像一面放大镜,把我们以前在对话框里习惯的纸上谈兵,全都放大到现实世界的层面。对话里理解错了,顶多就是一句说错的话;可在Agent里理解错了,很可能就变成一件无法挽回的错事。
有人凭直觉就下结论:大模型幻觉那么多,指令理解又没法保证,Agent肯定走不远。这种担心可以理解,但其实是判断错了。
到了Agent时代,语言理解的关键不再是“能不能一次就听懂”,而是“能不能在反馈闭环里慢慢修正到位”;真正的边界也不是“模型懂不懂”,而是“执行权能不能被约束、被审计、被治理”。 简单说就是:理解可以不完美,但执行必须可控。
一、语言理解从“考试题” 变成“闭环控制题”
以前传统NLP聊“理解”,大多像老师改卷子:句子读懂了吗?意图抓对了吗?回答像人吗?在聊天机器人那个阶段,这套标准还勉强能用。对话本来就允许模糊:说错了可以再问,答非所问可以换个说法,就算模型瞎编,你最多也就翻个白眼。
可Agent场景完全不一样。Agent的“理解”最后都要变成实际行动:调用工具、操作文件、点击网页、发送邮件等等。于是语言理解的标准,不再是单次输出对不对,而是一整套“计划—执行—反馈—纠错”的系统能力。 这就像从做“考试题”,变成做“控制题”。
控制系统是允许单步出错的。只要系统能观察、能纠错、能收敛,误差就会在闭环里一点点被消除。反过来,就算局部再聪明,要是没有反馈信号、没有纠错机制、没有收敛路径,一点点小偏差,都可能在执行过程中被放大成大问题。
OpenClaw的意义,正是把这种差别明明白白摆在大家面前:在对话框里,你看到的是模型的“口才”;在执行框架里,你看到的是它能不能在闭环里把事情做对。
真正决定好不好用的,不是模型有没有偏差,而是系统有没有能力把偏差控制住。
二、OpenClaw改变的是人机接口
为什么OpenClaw会给人一种“能力突然爆炸”的感觉?因为它重新定义了软件操作的人机接口。 过去几十年,人和软件的配合方式基本都是:人在图形界面上指挥,软件按固定流程运行。
你想订机票,就打开某个App,跟着菜单和表单一步步点;想整理文件,就在Finder里拖来拖去;想批量处理数据,要么写脚本,要么在表格里点到手指发酸。
软件把世界拆成了无数个“功能入口”。人要在这些入口之间来回切换,费时间、费精力,还费耐心。 OpenClaw把所有入口压缩成一句话:你只要说出目标,系统就会试着去完成。
你不用再记“功能在哪”,也不用自己走完整个流程。你只管说清楚想干嘛,Agent负责找方法、走流程。 那出错了怎么办?关键就在于不要求“一次就做对”。它靠反馈回路来修正:你澄清目标,它调整计划;它上报异常,你决定要不要继续。
这就是第一个关键事实:大多数时候,理解不够或者理解错了,并不是根本问题,因为有闭环在。只要Agent能把要做什么说清楚,把正在做什么展示出来,把做完的结果反馈给你,人就能纠正、澄清、不断试错。
这种“对话+反馈”的接口,更符合人类的组织方式。你不再是操作员,更像项目经理;Agent也不再是工具,更像一个愿意加班、愿意试错、愿意反复修改的数字下属。
三、效率的真正来源不是更聪明, 而是更勤恳、更能探索
在OpenClaw的实际应用里,把控工程主要靠三个关键原则。从来都不是靠智商,而是靠时间和精力。很多思路不是我们想不到,而是懒得做、没空做、做不起。
举个最典型的例子:把一整年的客户发票整理成财务报告,按客户汇总、标出异常、生成PDF,再发给会计。人当然能做,但这意味着几十次搜索、无数次复制粘贴、各种格式调整,还要反复核对。这事不难,就是特别磨人。
Agent的computer use之所以让人震撼,原因就在这:它把“可以探索的方案空间”彻底打开了。以前你没时间尝试的方案,Agent可以试;以前你不会写的脚本,Agent可以写;以前你嫌麻烦不愿做的数据搬运,Agent可以不知疲倦地做完。
它的优势不是突然灵光一现的聪明,而是持续不断的勤恳:二十四小时不吃不喝不睡,现场试错,反复修改,直到达成目标。 大家有个常见的误区:以为Agent要崛起,模型就必须“完美理解”。事实可能刚好相反。对大量任务来说,模型只要达到“能启动探索”的理解门槛就够了。
它给出一个可行计划,执行一段,拿到反馈,再调整优化。 语言理解在这里更像导航,而不是终点。你不会要求导航第一次就把你精准送到门口;你要求的是,在你纠正、道路变化、信息更新时,它依然能把你带到目的地。
OpenClaw的爆火,第一次让大众直观感受到:有授权的自动执行型Agent,能把效率提升到什么程度。它真的就像一个勤恳的数字员工:不是陪你聊天,而是帮你干活。
四、边界在哪里
但这并不代表我们可以轻描淡写地说“闭环就能解决所有问题”。闭环能解决的是可以纠错的偏差,解决不了的是不可逆的后果。 Agent场景真正危险的地方,恰恰在于:语言天生就模糊,可现实执行不允许模糊。
对话里你说“把这些文件整理一下”,模糊一点没关系;可Agent执行时必须明确:哪些文件?整理成什么结构?会不会覆盖?要不要删原件?异常怎么处理? 对话里你说“把报告发给会计”,你心里默认了会计是谁、哪封邮件、哪个附件;可Agent执行时,这些默认项都可能变成事故的入口。
更麻烦的是,Agent会从环境里读取大量文本:网页内容、邮件正文、文档片段、日志输出。这些文本在对话里只是信息,到了Agent这里,却可能被误当成指令。于是提示词注入、工具输出投毒这类问题,就会从“骗模型说错话”,升级成“骗模型做错事”。
这就是为什么安全问题在Agent时代突然变得至关重要:不是因为模型更容易被骗,而是因为被骗的代价高太多了。 所以我们要重新定义“语言理解的边界”。
边界不在于模型偶尔会误解,而在于系统是否允许误解直接触发不可逆的操作。聊天可以模糊,执行不能模糊;聊天可以出错,执行必须可回滚、可拦截、可追责。
五、真正的解法: 把执行权治理嵌进架构,而不是事后贴胶带
安全确实是最大的阻碍和困扰,但这也是行业集中发力的地方。因为所有人都能看到这个痛点,所以它不会一直处于“无解”的状态。
真正值得期待的方向,是把自动安全保障系统和人类决策机制嵌进架构里,让Agent在“可控的权限空间”里发挥勤恳的优势,而不是在“无限权限”里随意乱来。
这就意味着操作系统和Agent框架要一起进化。传统操作系统更关注资源管理:进程、文件、内存、网络;Agent时代的操作系统,更像是执行权治理系统:动态授权、临时权限、可撤销能力、可验证日志、全链路审计等等。 界面也会跟着改变。
UI不再是让你点按钮做事的地方,更像是三个层面的治理工具:反馈面板、授权关口、审计台账。 在这样的结构里,“关键决策必须经过人”不是妥协,而是新的人机分工:Agent负责执行,人类负责裁决。
你不用盯着每一步,但必须在高风险节点确认:删除大量文件、外发敏感数据、大额转账、签署合同——这些操作都要设计成默认需要确认,并且留下可追溯的记录。
这套机制一旦成型,对语言理解的要求反而会更现实:我们不要求模型永远不犯错,只要求它在可控边界内犯错;我们不要求它永远不产生幻觉,只要求幻觉不能直接通向执行;我们不要求它像人一样理解世界,只要求它像一个受监管的执行者一样行动。
六、OpenClaw预告的不是终局, 而是新问题:执行权如何分配
回头看,OpenClaw的意义可能不在于它实现了什么功能,而在于把讨论的重心从“智能增强”转向了“执行权分配”。
过去两年我们一直在争论模型够不够聪明;接下来几年,我们会更频繁地讨论:谁可以调用哪些工具?能给Agent多大权限?权限边界怎么定义?出了事故谁负责?谁提供审计证据? 这些问题听起来像是安全合规的琐碎事,但很可能决定下一代平台的诞生。
因为当Agent成为默认入口时,真正的权力不再属于某个App的图标,而是属于后台调度能力、分配权限、决定执行顺序的系统。 入口权就是利润权,边界定义权就是平台权。AI厂商在这方面的竞争会异常激烈。
结语:理解可以不完美, 稀缺的是可控的执行权
OpenClaw让我们意识到:软件时代正在发生形态变化。软件不会消失,但会变得隐形;用户不再直接操作软件,Agent会替用户调用软件。前台从“无数个App”收敛成“一个对话入口”,后台从“固定流程”转向“能力接口与调度治理”。
在这样的时代,真正稀缺的不是模型本身。模型会越来越强、越来越便宜。真正稀缺的,是可控的执行权:如何放权、如何约束、如何审计、如何追责。
放权和安全这对矛盾,谁能成为最厉害的协调者和平衡者,谁就能在Agent时代站上全新的制高点。
来智泊AI,高起点就业
培养企业刚需人才
扫码咨询 抢免费试学
⬇⬇⬇

夜雨聆风