新规来了:
为什么医疗AI需要"伦理审查"?
2026年4月2日,工信部、发改委等十部门联合发布《人工智能科技伦理审查与服务办法(试行)》(工信部联科〔2026〕75号),这个文件的正式名称里有个关键词:"服务"。
这意味着新规不是单纯设置门槛,而是在规范中提供服务、在监管中促进发展。但对医疗AI行业而言,一个不争的事实是:直接关系生命健康的领域,从来都是监管的重中之重。
医疗AI的特殊性在于三点:
决策后果不可逆:AI辅助诊断一旦出错,可能延误治疗甚至危及生命
数据敏感度极高:患者病历、基因数据、影像资料,每一项都是隐私红线
影响面广且快速:一个算法偏见可能影响数十万患者的诊疗路径
正因如此,新规明确将"人类生命健康"相关场景列为重点审查对象,并设置了比一般AI应用更严格的合规要求。
医疗AI全生命周期:
五个环节各有什么合规要求?
新规建立了覆盖AI产品全生命周期的伦理审查框架。医疗AI从研发到迭代,五个关键环节各有合规要点:
数据采集阶段:来源合法,去偏处理
医疗AI的"燃料"是数据。新规要求数据收集必须合法正当,患者授权不可或缺。更重要的是,训练数据的选择标准必须经得起审查——如果某款AI诊断系统的训练数据主要来自大城市三甲医院,用它来辅助基层医疗机构诊断,就可能存在系统性偏差。
实操建议:建立数据来源登记制度,保留授权凭证,对数据集进行偏见检测。
模型训练阶段:算法公平性是硬指标
新规明确禁止算法偏见和算法压榨。医疗场景中,这意味着一款AI产品不能因为患者的性别、年龄、地域、经济状况等因素给出差异化的诊疗建议。
例如,AI药物研发平台如果只在特定人群中验证疗效,其结论就不具备普适性。企业在模型训练阶段就需要建立算法公平性自评估流程,记录数据预处理方法、模型设计逻辑、验证测试集构成。
临床验证阶段:高风险场景须专家复核
新规设置了"专家复核程序",针对高风险AI活动要求"单位初审+专家复核"双重把关。跟踪审查间隔不超过6个月。
医疗AI诊断决策系统属于典型的高风险场景。这意味着相关产品的临床验证不能只靠企业内部测试,还需要外部专家介入审核。
商业部署阶段:可解释性要求与信息披露义务
部署上线的医疗AI产品必须合理披露算法用途、运行逻辑、交互方式说明和潜在风险。医生和患者有权知道AI为什么做出某个诊断建议。
这对产品的用户界面设计提出新要求:不能只给结论,还要给依据。
持续迭代阶段:跟踪审查制度
产品上市后不是"一劳永逸"。新规要求一般审查的跟踪间隔不超过12个月,高风险活动不超过6个月。版本更新、数据集扩充、应用场景扩展,都可能触发重新审查。
高风险场景的"可解释性"红线
新规附带的《高风险活动复核清单》列出了三类需要重点审查的场景。其中,与医疗AI直接相关的是面向安全、人身健康风险等场景的高度自主自动化决策系统。
什么概念?AI辅助诊断、AI药物剂量推荐、AI患者风险分层……这类"AI做决策、人来执行"的系统,统统属于高风险范畴。
红线一:双重审查机制
高风险医疗AI产品必须通过"单位初审+专家复核"。审查专家来自不同领域,包括伦理学家、临床医生、法学家等,确保多维度把关。
红线二:可解释性要求
这是新规对医疗AI最直接的硬约束。文件明确要求高风险场景需具备可解释性。这意味着AI诊断系统不能是"黑箱"——医生和患者有权追问:"你为什么建议做这个检查?"
技术上,这意味着可解释AI(XAI)技术将从"加分项"变为"必选项"。
红线三:责任归属链条清晰
新规强调"明确责任链条"。医疗AI的责任不再是一笔糊涂账:谁研发、谁部署、谁使用,各负其责。
具体到实操:如果AI辅助诊断系统给出错误建议导致患者延误治疗,追溯链条可能是——算法开发者(承担设计缺陷责任)、医疗机构(承担部署和临床决策把关责任)、使用医生(承担最终判断责任)。
三级责任体系:
企业、服务中心、监管部门各干什么?
新规构建了三级责任架构,各司其职、协同监管:
第一级:单位主体责任
高校、科研机构、医疗卫生机构、企业等,凡涉及AI伦理高风险活动的,都必须设立AI科技伦理委员会。
对医疗AI企业而言,这意味着:不能再把伦理审查当"走过场",必须建立实质性运转的内部伦理审查机制。
第二级:专业服务支撑
新规允许地方建立AI科技伦理审查与服务中心,为没有条件设立内部委员会的单位提供第三方审查服务。
这是专为中小企业设计的"替代路径"。中小企业无需自建完整体系,可以委托服务中心完成审查,既降低成本,又保证合规。
第三级:部门协同监管
十部门分工负责,工信部、卫健委、网信办等部门各司其职。医疗AI的监管涉及多个条线——产品归属工信部、临床应用归属卫健委、数据安全归属网信办——协调监管将成为常态。
对医疗AI行业的影响:
合规门槛提高,但不是"踩刹车"
短期阵痛难免
合规成本上升是必然的。企业需要配备伦理审查人员、建立内部流程、对接外部服务,审查周期也会带来产品上市时间的延长。
以一款AI辅助诊断产品为例:此前可能完成临床验证即可上市,新规后还需要完成伦理审查、专家复核、跟踪审查制度建立等步骤,周期可能延长3-6个月。
中长期利好优质企业
门槛提高的另一面是:不合规产品将被清出市场。
医疗AI行业过去几年存在野蛮生长现象,部分产品"拿数据跑个模型就上线",临床验证不充分、算法偏见不检测、可解释性不考虑。新规实施后,这类产品将面临严峻的合规压力。
对注重合规、投入研发的头部企业而言,竞争对手减少意味着更大的市场空间。
对医药行业数字化营销的启示
医药企业的数字化营销和培训体系正在大量引入AI工具——智能客服、内容生成、患者教育、客户画像分析。新规的出台意味着:
AI工具选型必须加入伦理合规评估维度。 供应商是否通过伦理审查?数据来源是否合法?算法是否存在偏见风险?这些问题在采购决策中将越来越重要。
对培训行业的机遇
伦理审查的专业门槛,催生了对培训服务的迫切需求。企业合规人员需要了解政策要求,技术人员需要学习伦理评估方法。这为医药行业培训赛道开辟了新的增长领域。
企业应对建议
建立伦理审查机制
大型企业:设立内部AI科技伦理委员会,配置专职人员
中小企业:考虑委托地方伦理审查服务中心,或加入行业联盟共享审查资源
关键动作:明确审查范围、流程、决策机制,确保实质性运转
完善数据管理体系
建立数据来源登记制度,保留完整授权凭证链
对训练数据集进行偏见检测,记录数据选择标准
完善数据安全保护措施,覆盖收集、存储、加工、使用全流程
建立算法公平性自评估流程
在模型训练阶段引入公平性指标检测
针对不同人群(性别、年龄、地域)进行分层验证
记录算法设计逻辑,形成可追溯的文档体系
高风险场景提前规划
识别自身产品中涉及人身健康决策的功能模块
提前准备专家复核所需的材料:技术文档、临床验证报告、风险评估
预留审查周期,避免因流程延误影响产品上市
关注标准体系建设进展
新规提出建立AI科技伦理标准体系,涵盖国际标准、国家标准、行业标准、团体标准。企业应主动跟踪相关标准制定进展,参与行业讨论,提前布局合规能力建设。
结语
《人工智能科技伦理审查与服务办法(试行)》的出台,标志着医疗AI行业从"先发展后治理"转向"边发展边规范"的新阶段。
合规不是目的,而是手段。最终指向的,是让真正安全、有效、公平的医疗AI产品惠及更多患者。
对行业从业者而言,与其视新规为束缚,不如看作行业走向成熟的标志。合规能力,将成为医疗AI企业的核心竞争力之一。

夜雨聆风