上个月,工信部网络安全威胁和漏洞信息共享平台(NVDB)发布紧急预警,专门针对OpenClaw等AI智能体提出“六要六不要”安全建议。监测数据显示,全国公网暴露的OpenClaw实例达7.52万例,63%存在可被黑客直接利用的安全漏洞。
中国信息通信研究院副院长魏亮打了个形象的比喻:“这就像把公司大门的钥匙挂在门口。”
四大核心风险,个个致命
1. 提示词注入风险:AI被“带节奏”
黑客在网页、邮件中藏匿恶意指令,诱导AI读取并执行。就像有人悄悄给司机换了个导航,让它开往错误的目的地。
2. 误操作风险:AI的“理解偏差”
AI误解用户指令,执行删除等危险操作。你想让助理“整理旧资料”,它却理解成“销毁所有资料”。
3. 技能包投毒风险:插件市场的“毒苹果”
AI插件市场(如ClawHub)中被植入恶意代码的技能包。2026年2月,ClawHub被注入1,184个恶意技能包,占比高达36.8%。
4. 安全漏洞风险:系统的“后门大开”
高中危漏洞导致系统被控、数据泄露。最危险的CVE-2026-30891,CVSS评分高达9.1(满分10分)。
职场冷知识:很多公司IT部门已经开始扫描内部网络,一旦发现违规使用高风险AI工具,轻则通报批评,重则解除劳动合同。
二、实操指南:工信部“六要六不要”落地清单
工信部的建议很专业,但如何变成每天能用的操作?我为你整理了一份“职场新人AI安全自查表”:
📋 AI安全使用自查表
🛠️ 三大高危场景的“傻瓜式”操作
场景一:用AI处理工作文件
正确做法
错误示范
场景二:安装AI插件/技能包
正确做法
错误示范
场景三:用AI生成对外内容
正确做法
错误示范
三、日常防护:5个必须养成的关键习惯
习惯1:建立“信息缓冲区”
安全收益:即使数据泄露,黑客拿到的也是脱敏后的信息
习惯2:学会“假设式提问”
:“我是香港永居,这是我签证截图,帮我看看哪里错了?”
:“假设有位香港永居申请人,其子女需要续签,表格ID91该怎么填?”
习惯3:碎片化提问,保护隐私
AI的上下文记忆基于当前对话。如果在同一窗口问股票、孩子学校、房价,AI就会拼出你的完整画像。
习惯4:建立个人“最小权限原则”
习惯5:按下“发送”前的3秒自检
四、总结互动:你的AI安全等级自测
🎯 快速自测(1分钟完成)
是否向AI输入过身份证号、银行卡号?(是→高风险)
是否定期清理AI聊天记录?(是→低风险;否→中风险)
💬 我想听听你的故事
你在使用AI工具时,遇到过哪些“惊险时刻”?或有什么安全小技巧?