给本地LLM开工具调用权限的朋友,如果你在用OpenClaw,赶紧停下手里的活儿去更新版本。蚂蚁集团的安全实验室刚扒出来一堆漏洞,其中一个能让你电脑里的文件裸奔。
- 蚂蚁安全团队(Ant AI Security Lab)花了3天审计OpenClaw,提交了33份漏洞报告。
- 2026年3月28日紧急修复了8个漏洞,包括一个严重权限提升和一个高危沙箱逃逸。
- 最要命的是那个沙箱逃逸漏洞,能让消息工具绕过隔离,直接读取你主机上的任意本地文件。
这漏洞到底怎么玩死你的?
讲真,玩本地LLM接Agent框架的,谁没想过让模型帮自己读个文件、执行个脚本?OpenClaw就是干这个的,它给LLM提供了工具调用的能力。但问题就出在它的沙箱隔离没做死。
这次被曝光的那个高危漏洞,能让攻击者利用消息工具,直接突破隔离层,摸到你电脑硬盘上的任何一个文件。你想啊,你的LLM要是被精心设计的提示词给“注入”了,或者它自己“幻觉”发作,开始乱调用工具,那不就等于给攻击者开了个后门?你的文档、代码、配置文件,甚至密钥,都有可能被读走。
原帖里说得很直白:
The scariest part for local setups? The sandbox escape lets the message tool bypass isolation and read arbitrary local files on your host system. If your LLM hallucinates or gets hit with a prompt injection while using that tool, your host files are exposed.
别以为本地运行就绝对安全
很多人有个误区,觉得模型跑在自己电脑上,数据不出本地,就安全无忧了。这次OpenClaw的事,算是给这种想法泼了盆冷水。模型本身可能没问题,但给它提供能力的框架、工具链,任何一个环节出纰漏,都可能变成千里之堤的蚁穴。

蚂蚁的安全团队这次是主动找上门审计的,属于白帽行为,发现问题后也及时报告和修复了。这其实算是开源社区安全流程的正面案例。但反过来想,如果没被审计呢?如果这个漏洞被别有用心的人先发现了呢?后果不堪设想。
所以,第一件事,马上去更新你的OpenClaw到最新版本。所有漏洞的详细报告和修复状态,都在下面的链接里。
第二件事,以后用任何工具框架,都别盲目信任。原帖最后那句话是真理:“Never trust the wrapper blindly just because the LLM is running locally.” 安全是个链条,模型、框架、你的使用方式,一个都不能松。
完整漏洞公告列表:https://github.com/openclaw/openclaw/security/advisories
留言聊聊
你现在给本地LLM用的哪个Agent框架?会更关注这类底层框架的安全问题吗?
来源:Reddit LocalLLaMA|原文:[Developing situation]: Why you need to be careful
夜雨聆风