乐于分享
好东西不私藏

【保密工作提示】是“助手”还是“陷阱”?AI泄密需警惕!

【保密工作提示】是“助手”还是“陷阱”?AI泄密需警惕!

当前,以大模型为代表的人工智能技术日新月异,AI写作、AI对话、AI合成等生成式人工智能不断用于办公场景,DeepSeek、豆包、纳米AI、元宝等软件成为工作的得力帮手,但我们要深刻认识到,AI工具在便捷办公的同时,也带来一定泄密风险。

典型案例

【案例一】:2023年3月,三星公司在引入ChatGPT后,短时间内便曝出多起机密资料外泄事件。经调查,泄密事件是由三星员工直接将企业机密信息以提问的方式输入到ChatGPT中所引起的,该做法导致三星公司半导体设备测量资料、源代码、产品良率等机密内容进入学习数据库,内部信息瞬间外泄,且无法收回。

【案例二】:2024年8月,国安部发布紧急提醒,指出部分涉密人员在起草涉密材料时,为节省工作时间,违规将涉密素材和涉密文件内容输入AI写作小程序生成文章,造成国家秘密泄露。事实上,AI小程序会自动收集用户输入的信息内容以供自主学习,这些信息一旦进入数据库就很容易被境外间谍情报机关窃取,危害国家安全和利益。

典型案例二

【案例三】某涉密单位工作人员李某,在起草一份涉密方案时,听同事说AI写作很好用,只要写上主题和需求,就可以帮忙写出文稿。李某在好奇心驱使下,在手机上下载一款AI写作应用软件,并私自将该涉密方案的部分敏感内容输入AI写作工具,通过AI代写生成网络文件资料。事件发生后,李某受到严肃处理。

【案例四】2024年7月,一宗使用“AI换脸”技术破解平台认证非法获取计算机信息系统数据案在广州南沙宣判。被告人利用“AI换脸”技术,将个人肖像照片加工成人脸识别数据,伪造被识别人眨眼、张嘴、点头等组合动作视频,顺利通过人脸实名认证,登录某服务平台系统个人账户,将账户里的个人信息出售给他人以牟取非法利益。

【案例五】:无独有偶,2024年9月,杭州市公安局网警通报了一起典型案例。在此案中,犯罪团伙利用AI换脸技术,简单输入照片并发送文字指令,就能生成普通人脸认证功能所需要的人像视频,从而突破平台人脸认证,登录他人的账号,定向获取公民信息,将其出售或者非法提供给他人从而获利。

保密提醒

    机关单位工作人员如将涉密内容输入AI工具进行处理,相当于将国家秘密信息上传至互联网,瞬间就会造成泄密。若工作人员为图便捷,将敏感信息上传至AI工具,被留存在后台,若被恶意窃取,则会导致敏感信息泄露。机关单位应规范使用AI,找好严守保密规范与释放AI潜能之间的平衡支点,让技术创新在保密安全的轨道上更好地赋能工作提质增效。

机关单位应明确AI工具的使用边界,画出清晰“红线”,核心原则是“上网不涉密、涉密不上网”。工作人员尤其应注意,严禁使用AI工具处理国家秘密、工作秘密和不宜公开的敏感信息。
从单位层面而言,应加强内部管理,如健全公文审核机制,注意对数据和内容的审核;开展系统性培训,对工作人员进行AI使用培训和保密教育,强化风险意识。
机关单位应对政务数据实行全生命周期加密管理,并实施严格的访问控制和身份认证机制;建立信息追溯机制,保证提示词输入、模型思考、最终输出等全过程留痕,便于监督和追责。
“涉密不上网!上网不涉密”
本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 【保密工作提示】是“助手”还是“陷阱”?AI泄密需警惕!

猜你喜欢

  • 暂无文章