不是所有能自动化的事情,都应该默认自动化。对于 OpenClaw 这类具备工具调用、记忆、浏览器访问、外部系统集成能力的 Agent 系统来说,真正决定它能否进入团队和组织流程的,不只是模型能力,而是权限边界是否清晰、审批治理是否可执行、行为链路是否可追溯。
一、为什么 OpenClaw 需要认真谈“权限边界”
过去大家谈 AI,更多是在讨论“会不会写”“会不会答”“能不能调工具”。但当系统从聊天机器人走向可执行 Agent,问题就变了。
因为这时候 AI 不再只是生成一段文本,它可能会:
读取本地文件和知识库 调起浏览器进入真实业务系统 调用 Feishu、GitHub、Drive、Bitable 等外部服务 修改文档、写入数据、发送消息 借助用户登录态去完成原本需要人工点击的动作
一旦走到这一步,真正影响它能不能落地的,就不是“模型够不够聪明”,而是:
它到底能看到什么 它到底能调用什么 它到底能影响什么对象 它到底是以谁的身份在做事 出了问题之后,能不能知道它为什么这么做、做了什么、谁批准的
说白了,组织真正担心的从来不是“AI 不够强”,而是“AI 太能干,但边界不清楚”。
这也是为什么一套 Agent 系统想进真实业务环境,必须先回答两个问题:
- 权限边界怎么划?
- 高风险动作怎么审批?
如果这两件事没有做好,Agent 再聪明,也只能停留在演示环境里。
二、权限治理的核心,不是限制能力,而是让能力可托付
很多人一提治理,就会下意识觉得它和效率对立。 但现实恰好相反。
没有治理,用户一开始也许会觉得自由;可一旦系统真的接入文档、消息、浏览器、审批、生产数据,所有人都会立刻变得保守。安全团队不敢放,业务负责人不敢接,最终结果往往不是“高效落地”,而是“全部收回”。
所以治理真正解决的问题不是“怎么限制 AI”,而是:
怎么让组织敢把事情交给 AI。
要做到这一点,核心就三条:
- 边界清楚
系统知道自己能做什么、不能做什么 - 授权明确
高风险动作必须有人类确认 - 链路可查
事后能追溯它做了什么、为什么这样做
这三条一旦成立,Agent 才会从“很酷的演示”变成“能上生产的系统”。
三、真正要画清楚的,不是“能不能用”,而是“能用到哪一层”
很多团队一谈 AI 权限,第一反应都是“给不给工具”。但 OpenClaw 这种系统里,真正危险的从来不是“有没有工具”,而是能力穿透了几层边界。
一个更实用的划分方式,是把权限拆成四层。
1)认知层权限:它能看到什么
也就是系统的“可见范围”。
包括:
能否读取本地文件 能否访问长期记忆、历史消息、知识库 能否读取浏览器上下文、Cookie、登录态 能否看见组织内文档、群聊、审批记录
这一层最容易被低估。因为它不直接“执行动作”,但一旦读到了不该读的信息,后面所有控制都已经晚了。
很多所谓的“AI 没有做危险操作”,只是因为它还没走到动作层;可它一旦已经看见薪酬表、客户名单、密钥配置、内部制度草案,这个越界本身就已经成立了。
所以认知层的第一原则不是“方便”,而是:
默认不知道,按需可见,敏感信息尽量不进入上下文。
这句话听上去保守,实际上非常务实。越早收窄上下文,后面就越稳;一旦让模型先看全量,再指望靠 prompt 让它“别乱用”,基本就是把治理寄托在运气上。
2)工具层权限:它能调用什么
在 OpenClaw 里,这一层通常体现为:
能否调用 read/write/edit能否执行 exec能否使用 browser能否发送 message能否访问第三方系统插件能力 能否调起 Feishu / GitHub / Drive / Bitable 等外部接口
这里最容易犯的错,是把工具权限做成一个“全有或全无”的开关。
但现实里并不是“能写文件”和“能发消息”风险差不多,也不是“能读文档”和“能执行 shell”一个级别。
更合理的做法,是把工具分成三类:
低风险工具:默认可放开
特点是只读、低副作用、可审计,例如:
读取文档 本地搜索 读取安全范围内的知识库 查询状态类命令
中风险工具:条件放开
这类工具不是不能给,而是应该附带前置条件:
写指定目录文件,但不能覆盖敏感配置 读取浏览器页面,但不能复用用户高权限登录态 调用外部接口,但仅限测试环境或草稿态
高风险工具:必须显式审批
典型包括:
exec执行系统命令 对外发消息、发邮件、发群通知 删除、移动、批量修改数据 使用用户真实身份进行浏览器操作 写入生产系统、线上表单、组织级文档
真正成熟的权限体系,不是“把危险能力完全拿掉”,而是:
把高价值能力保留,但把使用门槛抬高。
否则系统会变得很安全,但也很没用。
3)执行对象权限:它能影响谁、影响什么
这层经常被忽略,但它恰恰是最接近业务风险的一层。 同样是“写文件”,差别可能非常大:
写入个人笔记目录,风险可控 写入组织共享文档,风险上升 改测试环境配置,和改生产环境配置,完全不是一回事 给自己发一条草稿消息,和给 500 人群发通知,也不是一个级别
所以审批治理不能只盯着“动作类型”,还要盯着“动作对象”。
一个比较实用的判断公式是:
风险 = 动作强度 × 对象敏感度 × 影响范围
举几个例子:
write到个人笔记目录:低风险 write到组织共享文档:中风险 message.send到外部客户群:高风险 exec修改系统配置:高风险 browser点击内部审批系统中的“同意”:极高风险
这也是为什么很多团队做权限治理时,总觉得规则越来越多、越来越乱——因为他们只按“工具名”做控制,没有把“目标对象”一起纳入模型。
4)身份层权限:它是以谁的身份在行动
这一层最核心的问题是:
AI 是以谁的身份在行动?
这在 OpenClaw 里尤其关键。 因为很多动作的风险,并不来自动作本身,而来自它继承了人的身份:
读取用户已登录浏览器中的企业后台 复用用户在 Feishu / GitHub / Gmail 的会话态 以用户身份发送消息、提交审批、修改文档 借助用户权限访问原本模型无权接触的数据
一旦进入身份继承场景,治理要求应该立刻上一个台阶。因为这时候系统不再只是“有一个工具”,而是“拿到了某个人在组织里的权力”。
所以身份层有一条硬原则:
能用系统身份完成的,不用用户身份;能用受限服务账号完成的,不用高权限真人账号。
换句话说,尽量让 AI 以“机器人身份”做事,而不是“冒充人”做事。人机协作没问题,但不能默认人把自己的所有权力都借给 agent。
四、审批治理,不是多加一个弹窗,而是设计一条可执行的决策链
很多产品会把审批理解成“危险操作前弹个确认框”。这当然比没有好,但治理价值其实很有限。
真正重要的不是“有没有确认”,而是:
- 为什么这一步需要审批
- 审批人看到了哪些必要上下文
- 审批后授权范围有多大
- 这个授权是一次性的,还是持续性的
- 事后能不能追溯
如果这五件事说不清,所谓审批往往只是把责任重新甩回给用户。
一个合格的审批请求,至少要包含四个元素
1)意图说明
系统要说清楚:我准备做什么,为什么要做。
不是一句“请求授权执行命令”,而是类似:
准备读取日志目录,定位服务启动失败原因 准备写入报告文件到指定目录,生成巡检报告 准备向当前会话回复消息,交付处理结果
2)具体动作
要把即将执行的动作展示清楚,而不是抽象化描述。
比如 shell 审批里,应该展示完整命令,而不是“将执行系统命令”。因为风险往往藏在细节里:
有没有 rm有没有 sudo是不是会覆盖文件 有没有网络出站 是不是链式执行了多个动作
3)影响范围
审批人必须知道影响会落在哪:
哪个目录 哪个文档 哪个群聊 哪个环境 哪些记录 多大数量
4)回滚与替代方案
不是所有动作都能回滚,但系统至少应该说明:
可否撤销 如果失败会怎样 有没有只读 / 草稿 / 预演模式
审批的本质,不是“点一下同意”,而是给人足够信息做判断。
五、最值得做的是“分级授权”,不是“统一审批”
如果所有操作都审批,用户很快就会疲劳;如果大多数操作都不审批,治理又会失效。 所以真正能落地的机制,一般都不是统一审批,而是分级授权。 一个可操作的四级模型可以这样设计。
L0:默认放行
适用于:
只读查询 安全范围内的信息检索 本地笔记草稿生成 不对外、不落生产、不改配置的动作
特征是:低副作用、低敏感、易审计。
L1:会话内授权
适用于:
当前任务上下文下的有限写入 明确边界内的文件编辑 当前聊天中的回复草稿 某个文档的追加更新
这一层的重点是:
授权不跨任务,不跨场景,不自动继承。
今天允许它改一篇文章,不代表明天就可以改所有文档。
L2:单次审批
适用于:
执行 shell 命令 调用外部 API 写入数据 发出正式消息 修改共享文档 操作浏览器中的真实业务系统
这类动作每次都应该给出明确审批。不是因为系统不信任自己,而是因为业务责任需要人承担最后一跳。
L3:双重确认 / 人工复核
适用于:
删除数据 批量变更 生产系统写入 组织级通知 审批、转账、发布等不可逆业务动作
这一层如果还想“完全自动化”,风险会非常高。因为这不是技术问题,而是组织治理问题。你当然可以做,但一旦出事,追责时没人会接受“模型理解错了”。
六、审批治理最怕两种假象:一种是假审批,一种是假自动化
1)假审批
表面看有弹窗、有确认,实际上用户根本不知道自己批准了什么。
这类审批常见问题是:
文案过于抽象 不展示真实命令或真实目标 不说明影响范围 默认按钮过于诱导 授权一旦同意就无限扩大
最后用户会形成条件反射:只要弹窗就点“允许”。一旦走到这一步,审批系统就已经失去意义了。
2)假自动化
另一种常见误区,是把所有高风险动作都让 AI 自动做掉,然后宣传“全流程无人值守”。短期看很酷,长期一定出问题。
因为企业里的很多流程,本来就不是为了“步骤繁琐”才存在,而是为了:
留责任人 保证复核 减少误操作 处理例外情况 给审计留证据
如果你把这些环节全部折叠掉,效率也许上去了,但治理能力是明显下降的。最后系统越“聪明”,组织越不敢用。
所以更现实的目标不是“全部自动化”,而是:
把应该自动化的自动化,把必须人工承担责任的节点清晰地保留下来。
七、从 OpenClaw 的产品方向看,更适合的是“受边界约束的代理执行器”
如果从产品定位上看,OpenClaw 最适合走的路线,其实不是放任 agent 无限扩张,而是做成一个带工具编排能力、带记忆、带审批、带可审计链路的人机协作执行器。
这条路线有三个非常现实的优势。
1)它更容易进入企业环境
企业真正买单的不是“AI 很强”,而是:
边界清楚 权限可控 审批可配 行为可追溯 出问题能复盘
如果这几件事做得扎实,哪怕模型能力不是最强,组织也敢把真实流程接进来。
2)它更容易做长期稳定
纯靠模型自治,波动会非常大。同一个任务,不同上下文、不同工具组合、不同历史状态,结果都可能不一样。
但如果把权限边界、审批机制、执行范围固化下来,系统稳定性会立刻提升一个台阶。
3)它更符合现实工作流
现实世界里的大多数工作,本来就不是“AI 独立完成”,而是:
AI 收集信息 AI 形成草稿 AI 给出建议 AI 执行低风险部分 人在关键节点确认 系统保留记录
这其实才是最自然的人机协作结构。不是 AI 替代人,而是 AI 吞掉重复劳动,把责任节点留给人。
八、如果要把这件事做实,OpenClaw 至少需要补齐这几个治理能力
如果往产品设计再往前推一步,我认为至少有五个能力是绕不过去的。
1)权限分层配置
不是简单的“启用 / 禁用工具”,而是:
按工具分类 按对象分类 按环境分类 按身份来源分类 按风险等级分类
这样才能真正把“能不能做”变成“在什么条件下能做到什么程度”。
2)审批策略引擎
不同动作匹配不同审批策略,例如:
只读:默认放行 指定目录写入:会话内授权 外部发送:单次审批 生产变更:双重确认
审批不能靠临时拍脑袋,而要能被策略化、配置化、复用化。
3)操作前预演能力
很多高风险动作,其实并不是一定不能做,而是应该先给出预演结果,例如:
将修改哪些文件 将发送给哪些对象 将更新哪些记录 预计影响范围多大
先预演,再审批,再执行,这样用户才敢放手。
4)完整审计日志
至少要能记录:
用户原始意图 模型判断过程摘要 调用了哪些工具 操作对象是什么 是否触发审批 谁在什么时间批准了什么 最终执行结果如何
这不只是为了追责,更是为了持续优化治理策略。
5)可回滚设计
凡是能回滚的动作,尽量都要设计回滚路径,例如:
文件改动保留 diff 文档修改保留版本 批量操作先导出快照 高风险外发先进入草稿态
治理不是承诺“永不出错”,而是承认系统可能出错,并提前准备补救路径。
九、结尾:治理不是给 Agent 上枷锁,而是给组织建立信心
很多人会把“权限边界与审批治理”理解成对 AI 的限制,但如果站在组织视角看,它真正提供的是一种信心。
这种信心来自于:
它不会看到不该看的东西 它不会默认做不该做的事 它遇到关键节点会停下来问人 它每一步都能留下记录 它即使出错,也能被及时发现和纠正
所以,治理的目标从来不是把 Agent 变笨,而是把 Agent 变得可托付、可协作、可落地。
对于 OpenClaw 这类系统来说,真正决定它能走多远的,也许不是下一次模型升级,而是能不能先把这套“可控、可批、可查、可回退”的骨架搭起来。
一旦这套骨架成立,Agent 才不是一个会调用工具的聪明玩具,而是一个真正能进入团队、流程和制度里的生产力系统。
夜雨聆风