AI伦理:企业必须正视的治理“红线”——十部门联合发文的深度解读与企业合规操作
首先,AI伦理这事跟很多人有关。
但凡你的企业或者你个人:
-
用AI客服处理用户投诉
-
用AI筛选简历或评估员工绩效
-
用AI做客户画像或信用评估
-
用AI生成营销文案或产品描述……
十部门联合印发的新规《人工智能科技伦理审查与服务办法(试行)》就和你相关!
新规不是只管AI供应商。
只要你把AI用在涉及人、钱、健康、公平的这些领域,你就得对自己的使用AI的行为负责。
企业管理者们,你们都意识到了这个值得警觉的信号吗?
2026年3月20日,工业和信息化部、国家发展改革委、教育部、科技部、农业农村部、国家卫生健康委、中国人民银行、国家网信办、中国科学院、中国科协十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),标志着我国AI伦理治理从“原则倡导”正式迈入“制度化、规范化”的新阶段。
短短2年左右时间,AI技术以前所未有的速度渗透进企业运营的每一个环节——从招聘筛选到信贷审批,从客户服务到供应链管理,从内容推荐到生产调度。算法正在越来越多地“替人做决定”。然而,当算法失误、偏见显现、隐私泄露、责任真空等问题频繁出现时,一个根本性的问题来了:谁来为AI的这类“失误”负责?
《人工智能科技伦理审查与服务办法(试行)》可以看作是《科技伦理审查办法(试行)》在AI领域的专门细化版。意味着过去的“算法黑箱“、“技术中立“这些挡箭牌,失效!
我站在管理咨询的视角,带着这些问题:AI伦理究竟是什么?它管什么?怎么管?企业该如何应对?将《办法》看了又看,为不同类型的企业梳理合规指引。现将成果分享如下:
一、AI伦理的定义与范围:究竟在管什么?
|
类型 |
具体描述 |
风险等级 |
|
人机融合系统 |
对人类主观行为、心理情绪和生命健康具有较强影响的人机融合系统研发 |
高 |
|
意识引导系统 |
具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发 |
高 |
|
高风险自动化决策 |
面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统研发 |
高 |
|
标准/法规 |
发布机构 |
关键内容 |
|
《新一代人工智能伦理规范》(2021) |
科技部 |
六项基本伦理规范 + 18项特定活动伦理要求 |
|
《新一代人工智能治理原则》(2019) |
国家新一代AI治理专委会 |
八项治理原则 |
|
GB 45438-2025 |
国家标准委 |
AI生成内容强制标识(强制标准) |
|
GB/T 45674-2025 |
国家标准委 |
生成式AI数据标注安全规范 |
|
《生成式人工智能服务管理暂行办法》(2023) |
网信办等七部门 |
生成式AI服务合规要求 |
|
《网络安全标准实践指南—AI伦理安全风险防范指引》 |
全国信息安全标准化技术委员会 |
AI伦理风险识别与防范 |
-
政府:制度供给、底线监管、高风险审查 -
企业:主体责任内嵌、全流程伦理管理、伦理委员会建设 -
学术界:基础研究、伦理框架构建、评估工具开发 -
公众:伦理意识提升、参与式监督 -
国际社会:规则对接、标准互认、案例共享
|
领域 |
具体要求 |
法规依据 |
|
数据合规 |
训练数据来源合法、授权完整;完成去偏处理;留存授权凭证 |
《办法》第十五条、《中华人民共和国个人信息保护法》 |
|
算法公平 |
消除算法歧视,不得因性别、年龄、地域等因素差异化对待;禁止“算法压榨” |
《办法》第十五条 |
|
透明披露 |
显著披露算法用途、运行逻辑、交互方式、潜在风险 |
《办法》第十五条 |
|
安全可控 |
建立风险监测、应急处置机制;高风险活动需专家复核 |
《办法》第二十八条 |
|
内容标识 |
AI生成内容需添加不可篡改的显式和隐式标识(水印、元数据) |
GB 45438-2025 |
|
备案评估 |
具有舆论属性或社会动员能力的AI系统需向网信办备案 |
《生成式AI服务管理暂行办法》 |
|
内部机制 |
设立AI伦理委员会,跨部门覆盖研发、训练、应用全流程 |
《办法》第九条 |
|
用户权益 |
建立投诉举报机制,保护用户个人信息权益 |
《中华人民共和国个人信息保护法》《办法》 |
|
领域 |
具体要求 |
注意事项 |
|
供应商管理 |
审查AI供应商的合规资质、伦理认证 |
不得以“技术黑箱”为由推卸使用方责任 |
|
场景适配 |
在特定场景(如信贷、医疗、教育)中部署AI时,需补充场景化伦理审查 |
高风险场景需建立人工复核机制 |
|
数据输入 |
确保向AI系统输入的数据符合授权和隐私要求 |
不得将未经授权的敏感数据输入AI系统 |
|
输出监控 |
对AI决策结果进行常态化监测和偏差评估 |
发现歧视性输出应立即处置并反馈 |
|
用户告知 |
向用户显著告知AI系统的应用场景和决策范围 |
保障用户的知情权和选择退出权 |
|
责任链条 |
明确内部各环节责任人,建立完整日志和可追溯机制 |
事故发生时能清晰界定责任 |
|
员工培训 |
对使用AI的员工进行伦理意识和合规操作培训 |
特别是涉及重大决策的岗位 |
|
维度 |
AI服务提供企业 |
AI使用企业 |
|
核心责任 |
产品层面的设计合规、训练数据合规、模型安全合规 |
应用层面的场景适配合规、使用过程合规 |
|
审查重点 |
训练数据来源、算法公平性、模型安全性、内容标识 |
供应商合规性、场景适配性、输出监控机制 |
|
合规成本 |
高(需建立完整伦理治理体系) |
中(重点在供应商管理和场景管控) |
|
违规风险 |
行政处罚、市场准入限制 |
使用方连带责任、应用停用 |
|
协同关系 |
需向下游使用方提供合规证明和透明度报告 |
需从供应方获取合规说明和使用指南 |
-
算法不会“歧视”,但设计算法的人可能将偏见编码其中; -
模型不会“撒谎”,但训练模型的数据可能反映并放大社会的不公; -
系统不会“失控”,但部署系统的人可能没有建立有效的控制机制。
-
我们是否需要设立AI伦理委员会,构建清晰的数据治理和算法公平性监测机制? -
我们的AI系统在投入使用前,是否经过了系统的伦理风险评估? -
我们的员工是否具备基本的AI伦理意识和合规操作能力?
夜雨聆风