AI开始进入过程安全管理,危化企业先把这两个风险看明白
刚刚结束的 2026 AIChE GCPS/PPSS,也就是美国化学工程师学会春季会暨全球过程安全大会/过程装置安全专题会,已经把“生成式AI用于过程安全”正式提上了议程。更值得关注的是,官方议题里没有只讲提效,还把 model drift(模型漂移)、cyber-physical vulnerabilities(网络物理系统脆弱性)这两个词一起摆了出来。
这对危化企业很现实。AI 可以用,但别把它当成天然更智能的系统。在过程安全这件事上,哪些事能让它干、哪些事不能让它拍板,应该要先说清楚。
一、AI能进现场,但不能自己承担判断
从这次议题看,AI 在过程安全里的用法,已经不止写报告、做摘要、查资料这么简单了。
会上提到的方向包括:
这些方向都不是虚的。装置多、数据多、工艺复杂的企业,用得好,确实能少翻很多记录报表,也能少做不少重复活。
但问题也就在这里。过程安全最怕的,就是模型看起来很快效率很高,但实际判断上已经偏离了。
二、真正该先防的,是 model drift(模型漂移)
很多企业一听 AI,先想到的是能不能提效。但在过程安全里,更该先问一句:这个模型上线后,会不会慢慢跑偏。
model drift(模型漂移)说白了,就是模型训练时见过的数据,和后来现场真实跑出来的数据,不再是一回事了。
这在危化企业里其实不难理解。
比如:
一开始模型也许还能给出像样的结果,时间长了,误报可能变多,漏报也可能变多。最麻烦的是,它不会自己提醒你“我已经跟现场不一样了”。
所以,企业真要上 AI,建议先把下面这三件事问清楚:
这三件事没定,AI 参与的越多,风险越容易被放大。
三、第二个风险,是 cyber-physical vulnerabilities(网络物理系统脆弱性)
第二个要看的,是网络物理风险。
AIChE 在议题里直接把 cyber-physical vulnerabilities(网络物理系统脆弱性)放进了风险清单里。
危化企业里,AI 一旦和报警、联锁、视频、DCS(分散控制系统)、SIS(安全仪表系统)、远程监控这些东西连起来,问题就不只是算法准不准了,系统还可能被干扰、被误导、被绕开。
这类风险在企业里,常见的表现大致有这几种:
这类问题在工厂里最麻烦的,不是看不见,而是等看见时,往往已经过了最佳处理时间。
所以,AI 上线前后,企业至少要关注:
四、危化企业先别问“能不能上AI”,先问这4个问题
如果企业今年真要把 AI 引进过程安全,建议先把这 4 个问题捋一遍:
这四个问题,比用什么大模型重要得多。
五、比较稳妥的用法,是先放在低风险环节
企业如果现在就想试 AI,最好先从低风险、低决策权的地方下手。
比如:
先别急着让它直接碰高后果决策。尤其是涉及联锁、停开车、充泄压、应急处置这些操作时,AI 只能做提示,不能替代岗位人员操作。
说白了,AI 可以进过程安全,但更适合当助手,不适合当拍板的人。
结尾
AIChE 这次把“生成式AI用于过程安全”摆到台面上,其实已经把话说得很明白了:AI 不只是效率工具,也是新的风险源。
危化企业真要用,别只盯着提高效率了没有,先盯住 model drift(模型漂移)和 cyber-physical vulnerabilities(网络物理系统脆弱性)。
还是,先把验证、复核、权限和人工兜底这几件事做扎实了,再谈怎么上、先上到哪一步。
参考:
参考链接
[1] PPSS 议题页: https://www.aiche.org/conferences/aiche-spring-meeting-and-global-congress-on-process-safety/2026/28th-process-plant-safety-symposium-ppss
[2] AI Town Hall: https://www.aiche.org/conferences/aiche-spring-meeting-and-global-congress-on-process-safety/2026/events/ai-chemical-engineering-safety-environment-ethics-and-law-public-affairs-town-hall
夜雨聆风