
近期,一款名为“OpenClaw”的自动化AI辅助工具在网络上引发热议。此类工具主要作用是为AI装上了可以亲自“动手干活”的“身体”,其核心工作机制是“屏幕识读+云端决策+本地执行”。这类工具会长期“盯着”电脑屏幕进行高频截图,识别界面元素;随后将识别到的数据上传至云端AI大模型(如ChatGPT)进行“思考”决策;最后用“双手”在本地终端模拟鼠标键盘操作。这种“盯着屏幕、想于云端、干在本地”的运作模式,虽然看似极大地提升了办公效率,但技术原理决定了其天然存在严重的安全隐患。为保障政务数据安全,现将相关风险提示如下。
一、工作机制暴露的“显性漏洞”与“隐性陷阱”
OpenClaw类工具的工作逻辑决定了其在使用过程中存在显而易见的安全漏洞,也潜藏着不易察觉的技术陷阱。
1.显性漏洞:屏幕内容的无差别“直播”
原理分析:为了实现自动化操作,此类工具必须实时截取屏幕画面,但由于AI缺乏语义分辨能力和“人格”标准,它无法区分哪些是可公开数据,哪些是不可公开数据。
使用风险:当您操作业务系统、打开敏感文件时,屏幕上的所有内容(包括弹窗消息、任务栏信息、甚至旁边打开的无关涉密文档)都会被无差别截取。这种“所见即所传”的机制,导致敏感数据在您毫无察觉的情况下被批量采集并上传云端,构成了物理层面的数据泄露通道。
2.隐性陷阱:开源社区“技能包”里的恶意后门
背景现状:OpenClaw这类开源工具通常拥有一个开放开源的“技能市场”(Skills或Plugins社区),用户可以下载各种现成的自动化脚本(如“一键生成报表脚本”、“公文排版助手”)进行配套使用。
深层隐患:这些脚本多由国内外匿名开发者上传,缺乏严格的官方安全审核。恶意脚本极易伪装成“办公辅助工具”,在执行正常任务的同时,悄悄植入恶意代码、窃取账号密码,甚至将您的办公终端变为“肉鸡”。对于非技术人员来说,根本无法分辨一个微小脚本背后究竟藏着什么,这便是开源生态下极具隐蔽性的“供应链投毒”风险。
二、政府机构面临的风险与隐患
作为政府工作人员,使用此类工具不仅仅是个人行为,更关乎单位乃至国家的网络安全。
1.短期、表层风险:数据泄露与操作事故
数据违规出境:根据工作原理,若此类工具链接的是国外的AI模型,屏幕上的数据需上传至境外服务器进行AI推理。这直接违反了我国《数据安全法》关于重要数据出境相关规定,导致政务数据主权丧失。
“手滑”式操作事故:AI的决策存在不确定性。在自动化执行过程中,AI可能因误判界面元素、恶意指令,直接导致预期外的批量删除文件、错误发布信息或将敏感数据发送至错误对象。由于自动化工具操作速度极快,此类事故往往在发现前就已造成不可挽回的后果。
2.远期、深层风险:信息拆解与不可逆泄露
数据被“消化”与“重组”:需要特别警惕的是,通常情况下,上传至AI模型服务器的文档或数据,会被服务提供商存储并用于模型训练与优化。虽然原始文档可能不会被原封不动地记录在数据库中,但其包含的关键信息、逻辑结构和核心知识点,会以特征参数或知识碎片的形式被模型“记忆”和“消化”。
间接性泄密:这种“知识重构”过程意味着,您的敏感数据已融入AI模型的“大脑”。当其他用户提出相关问题时,模型极有可能基于这些“记忆”拼凑并输出相关内容。这种泄密方式隐蔽性极强、难以追溯且无法撤回,对于涉及国家秘密或敏感的政务数据而言,后果不堪设想。
3.战略层面风险:情报拼图与供应链依赖
情报拼图:单次使用可能只泄露碎片信息,但长期、多人使用,境外机构可通过对截屏数据的聚合分析,还原出我方的工作流程、人员架构、政策动向甚至战略意图,形成精准的“情报拼图”。
供应链受制与“卡脖子”风险:使用并依赖国外开源工具,意味着数字底层逻辑受制于人。一旦国际形势恶化,国外开发者可远程控制“停用”工具,轻则导致办公流程中断。重则被开发者利用数字“后门”植入针对性代码,转化为网络攻击武器,直接威胁我国数字安全。
三、国产同类产品及使用警示
鉴于上述风险,政府工作人员应当坚决在办公场所停用OpenClaw这类国外开源工具,转而选用符合国家信创标准、数据存储在国内的国产工具。但必须要明确注意的是,国产工具虽然有敏感信息筛查和防护机制,但也需要遵循严格的使用安全标准。
1.相对安全的国产工具
字节跳动扣子编程、阿里云CoPaw、ChatClaw等都是具有代表性的国产开源工具。适合搭建知识库问答、文档自动摘要等工作流。其数据存储严格遵循国家信创标准,采用本地化部署或国内合规云服务,有效规避境外数据流转风险;同时内置敏感内容识别与脱敏机制,可根据使用者需求对输入的数据进行自动安全筛查,降低敏感信息泄露隐患。
2.相对安全≠绝对安全
虽然上述国产工具数据存储在国内,受我国法律监管,但在使用中仍需警惕以下风险隐患:
云端版仍存在“模型训练”风险:多数国产工具的互联网版(云端版)默认条款中,仍保留将用户数据用于模型优化的权利。根据“涉密不上网”原则,严禁将涉密文件、内部敏感数据上传至云端版工具。即便是脱敏后的数据,一旦被模型“消化”为知识碎片,仍存在被他人提取的风险。
私有化部署仍有运维风险:由于国产工具也开放了开源社区,但是可供用户自由下载使用的配套工具、插件来源情况复杂,即使采购并使用本地化、私有化部署版本工具(数据不出单位),若运维管理不当(如弱口令、未及时打补丁、未深度检测),仍可能面临被内部攻击或横向渗透风险。
AI生成的“幻觉”风险:无论是国产还是国外AI,都依旧存在“一本正经胡说八道”的AI幻觉问题。对于生成的文字材料、数据,必须进行严格的人工核验,严禁直接作为决策依据,否则可能引发工作事故。
四、工作提示
1.立即清理:政府机构应全面排查办公终端设备,卸载来源不明、未经专业深度检测的国内外开源AI工具及插件、辅助工具,并彻底重装操作系统。
2.按需选用:优先选用国产工具的本地化、私有化部署版本或政务专版,并且在启用前进行全面安全检测。确保数据在本地闭环安全流转,从源头杜绝数据被用于外部模型训练或被“顺手牵羊”。
3.严格管控:即便是国产合规工具,也要严格遵循“涉密不上网,上网不涉密”原则,严格做到不在互联网计算机存储涉密或敏感信息,加强对自动化脚本、插件的审核管理,杜绝盲目下载使用。
安全是底线,合规是红线。请各位政府机构工作人员提高警惕,切勿让“提效神器”成为“泄密后门”和“数字间谍”。


编辑:李正峰
审核:刘晨晨

夜雨聆风