乐于分享
好东西不私藏

【速来围观】医疗机构人工智能应用与治理专家共识(2026版)核心解读

【速来围观】医疗机构人工智能应用与治理专家共识(2026版)核心解读

医疗机构人工智能应用与治理专家共识(2026版)核心解读

2026年3月,中国生物医学工程学会医学人工智能分会等40余家权威机构联合发布《医疗机构人工智能应用与治理专家共识(2026版)》。该共识旨在化解AI自主演化与传统监管的冲突,确立了“安全、有效、公平、可解释”的合规底线,标志着我国医疗AI治理迈入系统化新阶段。

核心治理框架聚焦六大维度:

准入评估:

多学科联合审查与分级管理

建立分类分级准入机制,引入AI前需组建涵盖医学、法律、伦理及工程专家的联合评估组,实行“一票否决制”。高风险应用必须经过真实世界验证及竞争性算法交叉验证,确保技术安全有效。

临床应用:

确立“人机协同,以人为主”原则

明确AI仅为医生的“外脑”与辅助工具,严禁替代医生决策。医务人员必须对AI输出结果进行实质性复核并留痕,最终诊疗责任由医生承担,禁止全自动化系统独立执行高风险操作。

患者权益:

落实分级知情同意与解释权

根据AI介入程度实施分级告知:低风险服务可弹窗提示,高风险诊疗(如手术规划)需签署专项知情同意书。医生需用通俗语言解释AI决策逻辑与局限,保障患者拥有拒绝使用AI的权利。

数据治理:

严守“数据不出院”红线

强化隐私保护与数据权益归属,强调“数据不出院”原则。医疗机构应优先采用本地化部署或私有云环境,严禁将未脱敏的患者信息直接上传至第三方公有云大模型。

风险管理:

建立全周期监测与熔断机制

构建全生命周期风险监测体系,发现AI出现逻辑谬误、幻觉或不良事件必须立即上报。医疗机构需具备紧急“熔断”能力,在系统故障时迅速切换至人工流程,并鼓励通过责任保险分担风险。

素养提升:

强化AI培训与保留人文沟通

建立进阶式AI素养培训体系,确保医务人员具备人机协作能力。同时,必须保留传统的医患面对面沟通渠道,确保在无AI辅助或系统停摆时,临床服务不受影响,维护医疗的人文温度。

更多相关资料咨询助手老师领取!

🌟重要提醒🌟
 为了不错过课程通知、作业提醒和重要活动,请把我们的公众号设为置顶吧!  
👉 操作步骤:
  进入公众号 → 点击右上角「···」→ 开启「置顶公众号」
点击底部”阅读原文”,领取免费Ai课程⬇️⬇️⬇️

往期推荐

科普

烹饪坊

科研

江湖菜

学术

新资讯