【AI+政策合规】《人工智能科技伦理审查办法》正式落地!企业必须关注这三点
📅 2026年4月28日 周二


2026年4月,工信部等十部门联合印发的《人工智能科技伦理审查与服务办法(试行)》(文号:工信部联科〔2026〕75号)正式落地实施。
(信息来源:工信部官网搜索文件名)
一、政策背景
2026年3月20日,工业和信息化部、国家发展改革委、教育部、科技部、农业农村部、国家卫生健康委、中国人民银行、国家网信办、中国科学院、中国科协十部门联合印发《办法》。
《办法》明确适用范围:在中华人民共和国境内开展的,可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动。
二、核心内容解读
🔴 核心条款一:训练数据”来源合法”硬性要求
《办法》第十五条明确规定,伦理审查重点关注:
训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨。
企业合规风险:
-
数据来源不明将导致审查不通过
-
训练数据存在歧视性内容未处理,项目将被要求整改
-
无法提供数据授权证明,面临法律责任
(政策来源:《办法》第四章第十五条)
🔴 核心条款二:数据困境破局之道
《办法》第六条提出:
促进人工智能科技伦理审查高质量数据集有序开源开放。
当前企业普遍面临三大困境:
困境
表现
不敢用
数据使用缺乏法律边界
不愿给
担心商业秘密泄露
不能通
数据格式不统一
《办法》通过建立伦理审查高质量数据集开源机制,为合规数据流通提供制度保障。
(政策来源:《办法》第二章第六条)
🔴 核心条款三:高风险AI强制审查
《办法》第十二条要求,申请材料必须包括:
科技伦理风险评估情况、防控及应急处理预案。
对于人机融合系统、具备舆论动员能力的算法模型、高风险场景自动化决策系统,企业必须建立风险监测机制和应急处置预案。
(政策来源:《办法》第四章第十二条)
三、行动建议
✅ 建议一:设立伦理审查委员会
-
3个月内设立委员会,成员包含技术、伦理、法律等专业背景人员
-
配备专职人员和专项经费
✅ 建议二:完善数据管理体系
-
建立数据来源核验台账
-
完成数据清洗与去偏处理记录
-
留存完整数据使用授权文件
✅ 建议三:算法公平性自评估
-
定期排查歧视性风险
-
重点审查招聘、信贷、医疗等敏感场景AI系统
✅ 建议四:履行信息披露义务
-
AI服务界面显著标注AI身份
-
向用户披露算法用途、潜在风险
✅ 建议五:申请政策支持
-
可申请使用简易审查程序
-
关注地方伦理审查与服务中心建设
四、互动话题
《办法》实施后,企业最需要优先解决的是哪项合规挑战?
A. 建立伦理审查委员会,配置专业人员
B. 完成训练数据来源梳理,建立授权台账
C. 进行算法公平性评估,消除歧视风险
D. 制定应急处置预案,完善风险监测
欢迎在评论区分享你的观点!
文章内容为政策解读,不构成法律建议,企业合规事宜请咨询专业法律顾问。
#皇城21号 #AI+政策合规 #AI政企应用
#AI政策监管 #合规指南
训练数据的选择标准,算法、模型、系统的设计是否合理;是否采取措施防止偏见歧视、算法压榨。
促进人工智能科技伦理审查高质量数据集有序开源开放。
科技伦理风险评估情况、防控及应急处理预案。
关注「皇城21号」
每日聚焦AI+精准干货,
助您AI+决策与效能提升!
周一 AI+行业周报
周二 AI+政策合规
周三 AI+科技算力
周四 AI+政企专题
周五 AI+人才引擎
周六 AI+工具分享
周日 AI+轻松时刻
📱 点击可关注

🏙️ 皇城21号发布 | 中文天下文化出品
夜雨聆风