法律观察LEGAL INSIGHT 十部门联合发文! AI伦理审查新规来了,企业需要知道什么? 《人工智能科技伦理审查与服务办法(试行)》实务解读 |
导读 2026年4月,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,共六章三十七条另附高风险活动复核清单。这是我国AI领域首部专门的伦理审查规范,标志着AI伦理治理从E2“软倡导”迈入“硬约束”时代。本文从实务角度出发,帮助企业和从业者快速理解新规核心要点。 |
一谁需要关注这部《办法》?
只要你在中国境内从事AI相关的研发或技术开发活动,且这些活动可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来伦理风险,就落入了《办法》的适用范围。
这个范围很广。做大模型的、做算法推荐的、做自动驾驶的、做医疗AI的、做人脸识别的、做深度合成的……几乎所有AI赛道的企业都需要认真对待。
二核心框架:七大原则 + 三级主体 + 四类程序
● 七大伦理原则
《办法》第三条明确了AI科技活动应遵循的七项原则。这些原则不是空话——它们是伦理审查的实质标准,审查委员会就是对照这七条来评估项目的:
|
| ||
|
|
● 三级责任主体
▶ 第一级:单位主责 高校、科研机构、企业等AI科技活动的实施主体,必须设立独立运行的AI科技伦理委员会,把伦理审查嵌入研发全流程。 |
▶ 第二级:专业支撑 地方可依托相关单位建立AI科技伦理审查与服务中心,提供第三方审查、复核、培训、咨询服务——中小微企业的福音。 |
▶ 第三级:政府监管 科技部统筹指导,工信部会同有关部门负责AI伦理治理,各行业主管部门和地方分工负责。 |
● 四类审查程序
《办法》根据风险高低设置了四种审查流程,严格遵循“风险越高,审查越严”的原则:
•一般程序——适用于常规AI科技活动,由单位伦理委员会或服务中心审查
•简易程序——适用于风险较低、情况简单的活动,流程简化
•专家复核程序——适用于纳入“高风险清单”的活动,初审通过后还须报请专家复核(30日内反馈)
•应急程序——适用于突发公共事件等紧急状态
三重点关注:高风险活动复核清单
这是整部《办法》最值得企业重点关注的部分。清单明确了三类必须开展专家复核的高风险活动:
类别 | 高风险活动类型 | 典型场景举例 |
一 | 对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发 | 脑机接口、情绪识别、AI辅助诊疗等 |
二 | 具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发 | 大模型、推荐算法、社交平台AI等 |
三 | 面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发 | 自动驾驶、无人机自主决策、AI安防等 |
✔ 重要衔接规则:已通过深度合成、算法推荐、生成式AI服务等监管措施的登记/备案/审批,且已将“符合科技伦理要求”作为审批条件的,可不再开展专家复核。这避免了重复监管。 |
四不只是“管”,还要“服务”
与很多人预想的“又是一道紧箍咒”不同,《办法》专门设立了“服务与促进”章节,从五个方面为企业提供支持:
•标准建设——推动建立多层次AI伦理标准体系,给企业清晰的合规指引
•服务体系——强化风险监测预警、检测评估、认证咨询等公共服务,加大对中小微企业的支持力度
•鼓励创新——鼓励以技术手段防范伦理风险,推动高质量数据集有序开源开放
•宣传教育——加强AI伦理意识的普及和培训
•人才培养——推进AI伦理领域的人才队伍建设
五企业现在应该做什么?
《办法》自印发之日起施行,不设过渡期。建议企业尽快采取以下行动:
01 自查项目是否落入高风险清单 对照清单中的三类活动,盘点企业在研和拟研发的AI项目,判断是否需要启动专家复核程序。 |
02 设立或完善伦理委员会 如企业有一定规模且持续从事AI研发,建议设立独立运行的AI科技伦理委员会,将伦理审查制度化。 |
03 关注服务中心建设动态 规模较小的企业,可关注所在地是否建立AI伦理审查与服务中心,借助第三方服务完成合规。 |
04 做好信息登记 通过国家科技伦理管理信息登记平台登记伦理委员会情况及高风险活动信息,提交年度报告。 |
六写在最后
这部《办法》传递的信号很清晰:中国AI产业的发展不会因为伦理审查而刹车,但必须在伦理和法治的轨道上前行。对企业而言,伦理合规不再是“加分项”,而是“必选项”。
早一步建立伦理审查体系的企业,不仅能规避合规风险,还可能在国际竞争中获得制度优势——毕竟,全球主要经济体都在加速AI伦理立法,率先建立合规体系的中国企业,在出海时会更有底气。
如需进一步了解AI伦理审查的具体操作流程,或就具体项目进行合规评估,欢迎联系我们。 |
夜雨聆风