
随着生成式 AI 在办公、研发、客服、运营等场景中快速普及,越来越多员工和业务团队开始自发使用各类 AI 工具提升效率。但与此同时,一个新的安全盲区也在形成——影子AI。
所谓影子AI,是指未经企业正式审批、评估和纳管,就被员工、开发团队或业务部门直接使用、接入或部署的 AI 工具、模型、插件、API 及智能代理能力。例如,员工使用公共 AI 工具处理工作内容,开发人员将代码或日志提交给 AI 辅助排障,业务部门绕过流程接入第三方模型 API,这些都属于典型的影子 AI 场景。
影子 AI 之所以会快速蔓延,原因很简单:门槛低、见效快、约束弱。员工只需注册账号或调用接口,就可以立即使用 AI 完成文档生成、代码辅助、内容总结等任务。很多企业将影子 AI 视为管理问题,但从实践看,它本质上更是一个安全问题。因为影子 AI 带来的并不只是“用了未经批准的工具”,而是企业原有安全边界正在被悄然打破,主要体现在以下几个方面。
第一, 敏感数据外发风险上升
员工可能会将客户信息、合同文本、财务数据、会议纪要等内容直接输入 AI 工具,研发人员也可能将代码、配置、日志甚至密钥提交给 AI 进行分析。一旦这些数据进入第三方平台,企业往往难以掌握其后续的存储、调用和保留方式,数据泄露和合规风险随之上升。
第二, 企业攻击面被持续放大
当前很多 AI 产品不仅是聊天工具,还包含插件、知识库接入、模型 API、工作流引擎以及 AI Agent 等能力。如果这些组件未经安全评估就被引入,新的外部连接、接口调用和自动化执行路径都可能成为风险入口。
第三, 传统安全控制对 AI 场景覆盖不足
大多数 AI 平台基于 HTTPS 通信,传统边界设备很难洞察具体交互内容。而提示词输入、文件上传、接口调用和 Agent 自动执行等行为,也不同于传统业务系统访问模式。结果是,企业可能根本不知道哪些员工正在使用哪些 AI 平台,哪些数据正在流向外部模型。
第四, 身份安全治理压力加剧
AI 工具的接入往往会带来新的账号、API Key、Token 和服务凭证,形成大量未纳管的外部身份和非人类身份(NHI)。如果缺乏统一治理,这些身份容易出现权限过大、长期有效、缺乏轮换和责任归属不清等问题,进一步扩大整体攻击面。面对影子 AI,企业很难依靠简单封堵解决问题。更现实的做法是:以可见性为前提,以数据与身份为核心,建立面向 AI 场景的持续治理机制。
具体来说,企业至少应做好四件事:
建立明确的 AI 使用规范:清楚界定哪些工具可以用、哪些数据不能输入、哪些场景需要审批。
提供安全合规的官方替代方案:只有官方工具既安全又好用,员工才不会转向高风险平台。
提升 AI 使用行为的可见性:持续识别组织内部正在访问哪些 AI 平台、调用哪些模型服务、使用哪些账号和密钥。
将 AI 纳入身份安全治理体系:对 AI 相关账号、服务身份、API Key 和 Token 建立统一台账、权限控制和生命周期管理。
AI 正在成为企业数字化能力的重要组成部分,影子 AI 也将成为未来长期存在的安全议题。对企业来说,真正关键的不是“有没有人偷偷用 AI”,而是能否看见、管住并持续治理这些风险。
只有围绕资产可见、数据可控、身份可管、行为可审计建立完整能力,企业才能在保障安全的前提下,真正释放 AI 的业务价值。
END

夜雨聆风