OpenClaw“龙虾”曝出安全隐患!Token消耗过快,误删本地磁盘,非技术人员可能会被劝退,你还敢尝试吗?最近科技界最火的话题就是代号为“龙虾”的OpenClaw。到2026年1月的时候,这款开源Agent在GitHub上的星星数量已经突破了二十万颗,并且有不少粉丝把它奉为“2026年度最火爆的项目”。人们最初的印象就是它可以帮我自动订餐厅、写周报的全能助手,还有人开出了500元上门安装的服务。但是这种狂热只持续了一个多月的时间,后来就不再流行了。目前在网上流传最广的不是安装教程,而是“299元远程卸载”的服务。从“神坛”到“避坑”的变化,实际上就是反映出了目前的AI Agent在落地过程中所面临的困境:理想很丰满,但是现实却非常烧钱而且不安全。第一个矛盾就是发生在钱包上面。人们认为使用AI可以节省成本,“龙虾”所考虑的是另外一种逻辑。传统的聊天机器人是问答式的,你发送一条它回复一条;而OpenClaw这样的自主智能体则是全程执行。为了完成你随便说的一个“爬取网页并进行分析”的任务,在后台会不断的对目标进行拆分,心跳检测,状态校验。这样就使得Token消耗并不是线性的,而是呈指数级别的爆发。有的用户反映,随便聊几句,100万个Token就没有了;想要它抓取资讯页面的话,单次的成本接近20美元。如果不能够理解自动化的推理所付出的成本的话,那么普通的用户就会在还没有享受到好处之前就收到一张巨额账单。相比于烧钱,让人更加害怕的是系统的权限失控。因为“龙虾”的设计目的就是控制电脑,“龙虾”具有读取文件、运行脚本的高权限。就相当于把家里大门的钥匙交给了一名实习期的管家。开发者在安装插件的时候由于配置错误触发了异常修复,从而使得本地磁盘的数据全部丢失。现阶段大家认为,在AI操作精度稳定达到3σ水平之前,把所有权利都交给Agent等同于裸奔。对企业环境而言,无法控制的执行权是一条不能触碰的红线,无论效率提高多少,都抵不过数据泄露或者系统崩溃所带来责任的风险。🧠 权限隔离与沙箱机制是安全落地的唯一出路要想解决这些老问题单凭大模型的智慧提高是远远不够的。目前研发的方向也正在被逼着往“受控”的方向发展。未来Agent的形式将会经历两次重要的演化。安全性的补课就是给操作系统和AI之间加上一个“隔离沙箱”,所有的敏感操作都得让人再确认一次,要么就在限定的工作目录里跑,这样就可以防止它胡乱行动了。第二是经济性的优化,即用本地的小模型来解决简单的逻辑问题,在需要做复杂的决策的时候再调用大模型到云端去,以此来降低Token的成本。也就是说,“龙虾”以后要戴上脚链跳舞了,不能像现在这样肆意妄为了。对于绝大多数非技术人员的朋友来说,我也不敢打包票地说现在的时机很好。如果只是为了尝试一下AI写的文案,那么现在已经有很不错的APP了;但是想要让AI帮你管理自己的电脑的话,你所要承受的学习、配置等方面的隐形成本,可能会远远大于它带来的好处。现阶段最安全的做法是:如果一定要部署的话,必须在虚拟机或者主力机以外的机器上进行,并且要严格限制它所访问的目录。春节即将来临,如果假期中要花费很多时间来设置各种各样的环境,那么还不如先看看“企业级龙虾”项目是如何解决权限审计的问题。现在的AI Agent是“效率神器”还是“烧钱玩具”?如果换成你的话,你会把电脑的最高权限给到人工智能吗?欢迎大家评论区发表自己的看法。可以先收藏本文,下次遇到各种“一键部署”的广告刷屏的时候,再拿出来对照着避坑。