点右上角听全文,边听边读更过瘾
核安全局为什么要点名AI?
——从核安全监管视角看AI入核的正确姿势
5月4日,《学习时报》头版刊发了国家核安全局局长董保同的长文。洋洋数千言,信息量巨大,但最让我注意的,是两次提到AI——
"积极稳妥推进人工智能技术应用,准确把握其在核领域应用的特殊性与阶段性特征,研究制定监管立场文件。"
"加快推进人工智能赋能核安全监管,拓展应用场景,夯实数据基础。"
两句话,四个关键词:积极、稳妥、特殊、赋能。
这不是随口一提。这是核安全最高监管机构第一次在纲领性文章里,如此明确地给AI入核定调子。
— ✦ —
先说"积极"
AI入核,不是要不要的问题,是已经开始了。
国内,核电企业已开始探索AI应用——中广核、中国核电、华能等集团纷纷布局,从设备故障预测到智能巡检,从高管AI素养培训到大模型辅助设备可靠性管理,场景越来越多。
国外更快。美国NRC(核管理委员会)早在2023年就发布了《人工智能战略计划:2023-2027财年》,系统评估了500多份现有监管指南,识别出8大类监管缺口。(来源:NRC AI战略计划,ML25269A196) NRC还成立了由首席AI官领导的AI治理委员会,办了好几届AI监管应用公共研讨会。
IAEA也不闲着。2025年4月发布了《核动力行业人工智能应用部署考量》技术报告,明确提出了AI在核能领域应用的安全原则。(来源:IAEA STI/PUB/2119)
英国ONR(核监管办公室)更激进,直接发布了"创新AI监管框架",为核技术与AI融合领域建立了全球首个系统性监管政策文件。(来源:英国ONR,2025年)
所以董保同说"积极",是因为不积极不行了。国际同行已经在跑,中国不能在场边看。
— ✦ —
再说"稳妥"
这两个字才是真正的重量级。
核安全领域有个铁律:任何安全相关系统,必须可验证、可追溯、可解释。
AI呢?深度学习模型的黑箱特性,恰恰跟这条铁律对着干。你让一个神经网络去判断设备是否异常,它告诉你"有问题",你问它"为什么",它说不清——或者说,它能给你一个概率,但给不了一个工程人员能理解的因果链。
这事儿不是理论推演,已经有实战教训。有研究指出,设备故障预测模型在训练数据未充分覆盖的边界条件下,可能出现泛化失效——该报警的不报警,不该报警的乱报警。在核电场景里,漏报意味着维修延误,误报意味着不必要的停堆,哪个都不好受。(来源:赛迪网《人工智能促进核电高质量发展研究》,2025年12月)
美国NRC的评估更具体:他们审查了500多份监管指南,发现71份存在潜在缺口,归为8大类——"隐含人工操作""特殊计算""软件质量保证""数据质量"等等。说白了,现行监管框架写的时候,就没想过有一天AI会来做决策。(来源:NRC监管框架缺口评估报告,ML24290A059)
董保同说的"特殊性",就是指这个:AI在核领域的应用,跟AI在电商、金融、自动驾驶里完全不一样。核安全容错率极低,一个误判的代价不是退货退款,可能是辐射泄漏。
"阶段性特征"呢?是说AI入核不能一步到位,得分阶段走——先从非安全相关的辅助应用起步,积累数据和经验,再逐步向安全相关领域延伸。
— ✦ —
"赋能"两个字,方向比速度重要
董保同两次提到AI,都说的是"赋能核安全监管"。
注意,他说的不是"赋能核电站",是"赋能核安全监管"。
这俩差别大了。
AI赋能核电站——让电厂用AI搞预测性维护、智能巡检、优化运行,这是企业的事,市场驱动,自然会发生。
AI赋能核安全监管——让监管方用AI审评、监督、分析、预警,这是监管现代化的事,没有顶层推动,不会自动发生。
而且,监管场景可能比运营场景更先落地。为什么?
第一,监管AI的风险等级更低。监管AI做的是数据分析和风险研判——发现异常趋势、识别薄弱环节、辅助审评决策——它不直接控制核电站设备,不直接影响安全系统。出了错,有人的判断兜底。
第二,监管AI的数据基础更好。董保同文中提到"整合许可、审评、监督等全链条数据资源,构建一体化智慧监管系统"。监管方手里握着全国64台运行核电机组(总规模112台)、近40台在建机组的审评和监督数据——这些数据打通了,就是AI最好的饲料。
第三,监管AI已经有产品落地。生态环境部核与辐射安全中心已经联合企业研发了"核堤"智能审系统——核安全监管领域首款专用AI大模型产品,具备"以库审文、以文审文、全文一致性及错别字/语法检查"等多模态自动化审查能力,已正式上线发布。(来源:国家核安全局官网)这不是PPT,是已经在干的事。
第四,监管AI的需求更刚性。64台运行核电机组,总规模112台(其中在建36台、核准待建16台),近40台同时建造,多种主力堆型并行——包括M310改进型、AP系列/国和一号、VVER、华龙一号等——靠人盯,盯不过来了。不是想不想用AI的问题,是不用AI,监管就跟不上行业发展了。
— ✦ —
对比:中美英三国,三种姿势
三国共性:都认为现行监管框架不够用,都需要补课。
差异在哪?节奏。英国最激进,框架已经发了;美国最系统,从评估到战略到治理一条龙;中国最谨慎——董保同的表述是"研究制定监管立场文件",注意,是"研究制定",不是"已发布"。
谨慎不是慢。核安全领域,谨慎就是速度。出了问题再补救,比一开始就稳着走,慢得多。
— ✦ —
监管立场文件意味着什么?
董保同说要"研究制定监管立场文件"。这个文件一旦出台,意义不亚于NRC的AI战略计划。
它会回答几个关键问题:
第一,哪些AI应用可以先行?非安全相关的辅助决策——设备状态监测、文档智能处理、经验反馈分析——这些大概率先放行。
第二,哪些AI应用必须审慎?涉及安全重要系统的AI——比如用AI替代操作员判断、用AI控制反应堆功率——这些短时期内不会放行,除非可解释性和可靠性问题彻底解决。
第三,AI模型怎么审?传统核安全审评审的是确定性——你的管道壁厚够不够、你的安全裕度够不够。AI模型审什么?数据质量、训练范围、验证方法、边界条件、退化机制——这套审评方法论,全球都还在摸索。
第四,谁负责?AI出了错,是开发者的责任还是营运单位的责任?NRC的立场很明确:不监管AI本身,只监管AI在核领域的使用行为,责任在持证者。中国大概率也会采取类似思路。
— ✦ —
一句话收尾
董保同点名AI,不是赶时髦,是被形势逼着往前走。
64台运行核电机组,总规模112台,近40台同时建造,M310改进型、AP系列/国和一号、VVER、华龙一号等多种主力堆型并行——人盯不过来了,必须用AI。但AI的黑箱特性和核安全的极致要求之间,存在根本性张力。
所以他的态度是:积极,但必须稳妥。先画跑道,再让跑。
这条跑道——监管立场文件——一旦画出来,AI入核就有了规矩。有规矩,行业才敢放开干。
不是管死你,是让你跑得稳、跑得远。
— ✦ —
延伸阅读
户外求索
夜雨聆风