【速来围观】医疗机构人工智能应用与治理专家共识(2026版)核心解读

医疗机构人工智能应用与治理专家共识(2026版)核心解读
2026年3月,中国生物医学工程学会医学人工智能分会等40余家权威机构联合发布《医疗机构人工智能应用与治理专家共识(2026版)》。该共识旨在化解AI自主演化与传统监管的冲突,确立了“安全、有效、公平、可解释”的合规底线,标志着我国医疗AI治理迈入系统化新阶段。
核心治理框架聚焦六大维度:
准入评估:
多学科联合审查与分级管理
建立分类分级准入机制,引入AI前需组建涵盖医学、法律、伦理及工程专家的联合评估组,实行“一票否决制”。高风险应用必须经过真实世界验证及竞争性算法交叉验证,确保技术安全有效。
临床应用:
确立“人机协同,以人为主”原则
明确AI仅为医生的“外脑”与辅助工具,严禁替代医生决策。医务人员必须对AI输出结果进行实质性复核并留痕,最终诊疗责任由医生承担,禁止全自动化系统独立执行高风险操作。
患者权益:
落实分级知情同意与解释权
根据AI介入程度实施分级告知:低风险服务可弹窗提示,高风险诊疗(如手术规划)需签署专项知情同意书。医生需用通俗语言解释AI决策逻辑与局限,保障患者拥有拒绝使用AI的权利。
数据治理:
严守“数据不出院”红线
强化隐私保护与数据权益归属,强调“数据不出院”原则。医疗机构应优先采用本地化部署或私有云环境,严禁将未脱敏的患者信息直接上传至第三方公有云大模型。
风险管理:
建立全周期监测与熔断机制
构建全生命周期风险监测体系,发现AI出现逻辑谬误、幻觉或不良事件必须立即上报。医疗机构需具备紧急“熔断”能力,在系统故障时迅速切换至人工流程,并鼓励通过责任保险分担风险。
素养提升:
强化AI培训与保留人文沟通
建立进阶式AI素养培训体系,确保医务人员具备人机协作能力。同时,必须保留传统的医患面对面沟通渠道,确保在无AI辅助或系统停摆时,临床服务不受影响,维护医疗的人文温度。
更多相关资料咨询助手老师领取!





往期推荐
科普
烹饪坊
科研
江湖菜
学术
新资讯
夜雨聆风