
文 / 张树军
2023年3月,三星电子接连发生三起与生成式AI相关的泄密事件:有工程师将芯片工厂测量数据库源代码输入ChatGPT,请它协助排查程序问题;也有人上传芯片良率测试相关代码,请AI帮助优化;还有员工把内部会议内容交给AI整理摘要。短短20天内,企业敏感信息就在“提升效率”的名义下,被输入到了外部平台。
这件事之所以值得所有管理者警惕,不是因为它发生在三星,而是因为它极具普遍性。
今天,越来越多的员工已经把AI当作日常工具:写材料、改方案、做表格、润邮件、写代码、整纪要。问题在于,很多人一旦尝到效率提升的甜头,就会自然地把更多内容交给AI处理——客户名单、合同条款、财务数据、内部汇报、技术文档,甚至尚未公开的经营计划。在员工看来,这只是“借助工具提高效率”;但在管理者眼里,这很可能意味着:企业最敏感的数据,正在以一种低门槛、高频率、几乎无感知的方式向外流动。
所以,AI时代企业面临的首要风险,并不一定是来自外部黑客的攻击,而可能恰恰来自内部员工“无恶意的错误使用”。
一、管理者对AI风险的误判,往往从“想太远”开始
一提到“AI风险”,很多人首先想到的是科幻式场景:AI失控、机器替代人类、系统全面失去控制。但对于现实中的企业来说,真正高频、真实、且代价高昂的风险,其实并不神秘。
如果给当前企业AI风险排一个序,通常最值得优先关注的是以下几类:
其中,最现实、最常见、也最容易被低估的,往往就是第一项:数据泄露。因为它通常不是恶意行为,而是“顺手为之”;不是少数技术人员的特权,而是所有普通员工都可能发生的日常动作;也不是偶发性操作,而可能在企业内部每天都在发生。
二、比错误更隐蔽的,是AI把偏见包装成“客观”
除了泄密风险,管理者还要高度警惕另一个问题:AI并不天然代表客观,它也可能把历史偏差放大成制度性偏见。
亚马逊曾开发过一套AI招聘系统,希望通过机器学习提升筛选效率、减少人为干预。但最终这套系统被发现会系统性压低女性候选人的评分,例如对包含“女子大学”“女性编程俱乐部”等信息的简历更不友好。问题并不在于谁故意给AI灌输了歧视,而在于AI从历史录用数据中“学会了偏见”。
这对管理者的提醒非常明确:AI不是价值中立的,它会继承历史数据中的结构性问题,并以“算法推荐”的方式重新输出。
如果企业已经开始在招聘筛选、客户评级、授信审批、绩效分析、智能客服等场景中引入AI,那么就不能只关注“效率提升了多少”,还必须追问三个问题:
三、深度伪造带来的,不只是技术风险,更是管理风险
2024年,香港一家跨国公司发生一起轰动案件:一名财务人员参加视频会议后,按照“公司高管”的要求分多次转出巨额资金。事后证实,会议中的相关人员形象和声音均由AI伪造。
这个案例说明,AI带来的风险已经不再局限于“文档内容是否准确”,而是进一步冲击企业最基本的信任机制。
过去,很多组织默认认为:“视频看见了本人、语音听到了本人”就足以构成确认。但在深度伪造时代,这个逻辑正在失效。
对于管理者而言,这意味着至少三件事必须尽快补课:
重大资金操作不能只依赖单一确认方式; 关键岗位必须建立多重验证机制,如回拨、二次签批、预设校验信息等; 财务、法务、行政、人事等高风险岗位要接受识别深伪的专项培训。
AI越强,组织越不能继续依赖“经验判断”。以往靠“我听得出来”“我看得出来”维持的信任机制,未来都要逐步升级为制度化验证机制。
四、企业用AI,最需要先立起来的是边界
很多企业现在的问题,不是员工不会用AI,而是“太会用了”,但没有边界。
所以我更建议管理者先不要急着讨论“怎么全面拥抱AI”,而是先把最基本的使用红线说清楚。对普通员工来说,只要记住“五不原则”,已经能规避大部分风险:
一句话概括就是:凡是不能公开发布的内容,就不要轻易输入公共AI工具。这条原则看似朴素,但恰恰是很多企业今天最缺失的基本治理常识。
五、真正成熟的管理,不是限制AI,而是让AI在规则内创造价值
需要特别强调的是,讨论这些风险,并不是要否定AI,更不是主张企业“因噎废食”。
恰恰相反,AI已经成为组织提效的重要工具。不用AI,组织会落后;乱用AI,组织会失控。管理者真正要做的,不是在“用”与“不用”之间二选一,而是在“有序使用”和“无序扩张”之间做选择。
我建议管理者尽快推进三件事:
六、AI可以辅助决策,但不能代替责任
最后,一个管理者必须想清楚的问题是:如果AI参与了决策,出了问题,谁负责?
答案并不复杂:责任永远属于使用AI并据此作出决策的人,而不属于AI本身。
AI可以给建议、做分析、写初稿、提方案,但它不是责任主体。你的团队因为AI输出失实而对外发布错误信息,责任在团队;你的HR因为AI筛选机制不当造成歧视,责任在企业;你的财务因为AI辅助判断失误导致损失,责任不可能推给工具。
所以,管理者一定要守住一个底线:重要事项必须保留人工复核,关键决策必须保留人工拍板。AI可以做参谋,但不能代替将军承担后果。这不仅是技术常识,更是管理常识。
结语:AI越深入组织,治理越要跑在前面
未来,AI不仅会写文案、做表格、改代码,还会逐步接入更多业务流程,参与审批、分析、调用系统、生成指令。AI能力越强,组织治理的重要性就越高。
真正成熟的企业,不会把AI当作一个“谁都可以随手调用”的万能工具,而会把它纳入制度、权限、流程和责任体系之中。只有这样,AI带来的才是可持续的生产力,而不是失控的风险放大器。
AI时代,企业最大的风险不是不用AI,而是用了AI,却没有治理。
— END —
AI赋能管理者
让AI真正成为生产力
长按关注 · 一起探索AI实战应用
夜雨聆风