近期,OpenClaw、Copaw等开源自动化AI智能体在互联网应用领域掀起了一次热潮,很多同志已经开始使用。日前,工业和信息化部监测发现,OpenClaw(俗称“龙虾”)开源AI智能体部分实例在默认或不当配置情况下存在较高安全风险。不仅OpenClaw,类似框架的智能体如Copaw、Kimi Claw、MiniMax、Max-Claw等,同样存在安全风险。请全校师生务必提高防范意识。
一、了解主要安全风险
由于开源AI智能体在部署时“信任边界模糊”,且具备自身持续运行、自主决策、调用系统和外部资源等特性,可能执行越权操作,造成信息泄露、系统受控,数据修改甚至删除等一系列安全风险。使用公共模型时本地数据会发送至模型服务商,存在个人信息及学校的科研、教学数据等泄露风险。
二、工作要求及防护建议
鉴于OpenClaw等开源AI智能体目前仍处于早期阶段,安全机制尚不完善。在使用前充分学习相关知识了解风险及防护技能,核查公网暴露情况、权限配置及凭证管理情况,关闭不必要的公网访问,进行全面的安全检测,完善身份认证、访问控制、数据加密和安全审计机制,并持续关注官方安全公告和加固建议。
建议师生不将该工具用于生产环境。因教学、科研等工作需要必须使用的,应使用专用虚拟机或“沙箱”等隔离环境,并严格限制资源授权和执行权限。
如需安装开源AI智能体的Skills模块,务必从可信渠道获取,避免安装来源不明、功能不明的插件。Skills模块功能相对不透明,没有明确的监管,需要用户自主评估使用的安全性。
已关注
关注
重播 分享 赞
夜雨聆风