
2026年3月6日,深圳腾讯云总部,近千人排队等待安装OpenClaw。
2026年3月8日,工信部发布安全预警。
2026年3月13日,多所高校发出通知:严禁使用,已安装的立即彻底卸载。
同一个工具,同一周,两种截然相反的社会反应。
在急着评判谁对谁错之前,值得先问一个问题:为什么会这样?
NotebookLM的音视频概览,解读的比较通俗易懂,对于时间比较紧张的读者朋友,可以听听,会有启发。
机构在怕什么
从工信部的"六要六不要",到高校的强制卸载令,再到国有银行的内部禁令,梳理下来会发现,机构的担忧高度一致:数据泄露、权限失控、供应链攻击、公网暴露。
但这里有一个容易被忽略的细节——这些担忧没有一条是针对OpenClaw这个产品本身的。
它们针对的是一类Agent的底层特征:系统级权限、24小时在线、自主决策、可调用任意工具。只要一个Agent产品具备这四个特征,这些担忧就会如影随形。
换句话说,就算OpenClaw明天消失,下一个有同样特征的Agent平台出现,这波担忧还会原样重演。机构们其实是在用针对OpenClaw的禁令,应对一个比OpenClaw大得多的问题。
个人在兴奋什么
个人用户的兴奋点同样不难理解。
很多人是第一次在消费级产品上真实体验到"把执行权交出去"的感觉——有东西在帮你盯着邮件,有东西在帮你跑任务,有东西24小时在线,不需要你盯着屏幕。
这种体验是真实的。它不是噱头,不是演示视频里的夸张效果,而是很多人装好之后第一次运行就能感受到的东西。兴奋是真实的,不应该被简单否定。
但个人用户的兴奋里,有一件事往往没有被认真想过:我把执行权交出去的时候,责任也跟着交出去了吗?
责权利:一体与分离
这是这篇文章真正想说的事。
个人使用Agent,责权利天然一体。
你自己决定让Agent做什么(权),出了问题你自己承担(责),收益和损失都落在你身上(利)。三者绑在同一个主体上。这种情况下,你就是自己的裁定者——你随时可以叫停,随时可以改方向,没有人需要向别人交代。OpenClaw帮你管邮件发出去一封不该发的消息,这是你的问题,你自己处理。
这个结构是清晰的,所以个人使用Agent,在合理的边界内,不需要外部来管。
组织使用Agent,责权利天然分离。
操作的员工不承担决策责任,批准的管理层不直接操作系统,受益的是组织整体。三个主体,三种角色,分属不同的人。
在这种结构下,如果AI拿到系统级权限开始自主执行,出了问题会发生什么?是操作员工的责任,因为他配置了Agent?是管理层的责任,因为他批准了使用?是IT部门的责任,因为他们没有做好安全隔离?还是AI的责任——但AI没有法律主体资格,这条路走不通。
责任会在这几个主体之间漂移,最终可能谁都说得通、谁都说不清。
这就是裁定权问题的本质所在。
裁定权不是一个技术概念,它回答的是一个非常朴素的问题:这个动作发生之前,谁点了头?谁为它负责?
在责权利一体的个人场景里,这个问题的答案永远是"你自己",不需要额外设计。
在责权利分离的组织场景里,如果没有人显式地设计这个机制,裁定权就会在系统里形成真空。AI在执行,但没有人真正为这个执行负责——直到出了问题,才发现这个真空的存在。
禁令是应激,不是答案
理解了这个结构,再回头看机构的禁令,会看到它真正的逻辑:
既然责权利分离的组织场景里,裁定权归属说不清楚,那最简单的办法是——不让用。
这是一个在逻辑上完全成立的选择。禁止使用,裁定权的问题自然消失。安全漏洞不会被触发,数据不会泄露,责任归属不会模糊。
但这个选择的代价是:效率也一起禁掉了。
更重要的是,这个问题本身并没有被解决。Agent会继续发展,能力会继续增强,迟早会有组织需要认真回答这个问题,而不是用禁令绕开它。
真正需要的不是"能不能用"的答案,而是"怎么设计才能让裁定权清晰归属"的框架。
这个框架的核心逻辑并不复杂:在AI执行链路的关键节点上,强制插入人的确认——不是事后追责,而是事前授权。让每一个有实质影响的动作,都有一个明确的人为它负责。
这不是保守,也不是对AI能力的不信任。这是组织在责权利分离的结构下,维持有序运转的基本条件。
这波禁令是一个信号
从工具到基础设施,每一项技术在这个转变过程中都会经历类似的阶段:先是个人热情拥抱,然后是机构应激反应,然后才是系统性的治理框架逐渐成形。
电力、互联网、移动支付,都走过这条路。
OpenClaw的这波禁令,不是这个故事的终点,而是它真正开始的地方。
机构发现了问题,给出了最简单粗暴的答案。下一步,是有人开始认真设计那个更精细的框架——在不放弃效率的前提下,让裁定权在组织里找到它应该在的位置。
这,才是Agent时代真正需要被解决的问题。
一句话总结
同一周内从千人排队到强制卸载的戏剧性反转,背后是个人与机构面对同一个Agent工具时,截然不同的处境——个人使用责权利天然一体、裁定权在自己手里不需要外部管,而组织使用,责权利天然分离、裁定权一旦没有显式设计就会形成真空,机构的一刀切禁令,不过是用"不让用"来回避这个至今没有被认真解决的设计难题。
我是「AioGeoLab」主理人塔迪Tardi,AioGeoLab是深度洞察AI第一性原理和应用实践的前瞻性研究实验室,目前有两个主要研究方向: 「塔迪GEO判断工程」是基于GEO的价值SEO化,在AI从“说”到“做”的重要跃迁阶段,试图回答,如何让AI敢于行动、不因为责任问题而畏手畏脚,而做的一个前沿研究项目。「塔迪硅基禅心」是传统东方智慧、未来AI前沿、当下应用实践,深层共鸣的探索。不是用AI解读经典,也不是用经典指导AI。 这是一场跨越2500年的对话,在算法与古老智慧之间,照见意识、智能与存在的本质。 塔迪的微信 - tardyai2025。
夜雨聆风