警惕!AI工具可能成为身边的“泄密口”

随着人工智能技术的迅猛发展,AI应用在文字处理、数据分析、个性化服务等领域展现了卓越的能力,前所未有地融入我们工作和生活的方方面面。需要注意的是,我们在享受技术红利之时,也应警惕其存在的泄密风险隐患。


某涉密单位的工作人员李某,在撰写涉密方案时,听闻同事提及AI写作工具的高效与便捷。心生好奇的他,下载了一款互联网上的AI写作软件,并将部分涉密内容输入其中,希望借助AI代写提升效率。这一举动致使涉密信息被上传至公共服务器,引发了严重的泄密事件。李某因此遭到严肃处理,同时也为机关、单位的安全保密工作敲响了警钟。
随着人工智能技术的普及,开源AI工具以免费、高效、功能多样等优势,成为许多单位和个人使用人工智能时的首选。这类工具的核心是开源大模型,即架构、参数及训练数据完全公开,并允许用户免费使用的人工智能模型。这类模型不仅能精准完成推理、代码编写、文本及影像处理等任务,甚至可以基于体检报告给出专业健康建议,实用性“拉满”。
我们必须注意到,在带来便捷的同时,开源AI工具与生俱来的开放性也催生了新型泄密风险,且隐蔽性更强、传播范围更广。“投喂”给AI的任何文件、图片、文字等数据,都会被模型存储下来,以此为基础完成分析处理。这一特性是AI高效工作的前提,却也在无形中为数据泄露埋下伏笔。一旦数据被存进模型,就至少面临两种泄密风险:一方面,开源AI工具开发者拥有最高权限,可直接访问和查看所有存储数据,若开发者缺乏保密意识或存在利益驱动,用户上传的敏感信息可能被非法利用或泄露。另一方面,开源属性让黑客有机可乘,他们可以利用此类工具本身的漏洞攻击入侵后台,批量窃取存储数据,无需接触用户终端即可实现远程窃密。

对于企事业单位的工作人员,务必严格遵守保密法律法规,严禁使用任何开源AI工具存储、处理办公信息,不得将单位内部文件、图片、照片、音频、视频等信息,以拍照、输入、复制以及其他任何形式,部分或者全部使用生成式人工智能工具进行处理,坚决避免AI办公泄密!
编辑丨徐 迪
文字丨丰梓晗
视频丨董 燕
责编丨邹莉娜 孙 玮
审核丨汤占友

夜雨聆风