2026年3月28日,第十三届开源操作系统年度技术会议(OS2ATC)在北京顺利召开。作为国内开源操作系统与网络安全领域的顶级盛会,本次会议聚焦自主可控、安全可信、AI赋能等核心议题,吸引了学界、产业界与科研机构的众多专家参与。会上,北京工业大学-可信云科重明研究院院长胡俊正式发布《基于自主可信计算的AI辅助系统安全设计方法研究》报告,深度剖析AI时代安全面临的全新挑战,厘清安全本质、技术路线与落地方法,为我国网络安全、信创产业与AI系统安全建设提供了清晰的理论指引与实践路径。

本次报告立足国家等级保护2.0与可信计算3.0技术体系,依托北京市可信计算重点实验室、国家可信计算攻关示范基地的研究成果,跳出传统安全思维定式,重新定义AI时代的安全边界、防御逻辑与实现方式。

一、AI时代安全本质:算力的对抗,主客场选择决定胜负,自主可信+动态白名单才是防御主场
随着大模型、生成式AI、智能终端与Agent的广泛应用,传统安全防护体系正在失效。AI不仅能提升防御效率,更能大幅强化攻击能力——自动化漏洞挖掘、定向钓鱼、智能绕过、对抗样本攻击等手段层出不穷,过去依靠“补丁、防火墙、杀毒软件”的老三样防护模式,已经难以应对AI驱动的复杂威胁。在报告中,胡俊院长首先直击核心:AI时代,安全本质是算力的对抗,但算力对抗中,主客场的选择才是胜负的关键。
这一定义打破了大众对安全的传统认知。过去我们认为,安全是“攻击与防御的能力竞赛”,比拼谁的算力更强、知识更全、策略更快。但在AI时代,真正决定胜负的,不是攻击方与防御方谁更“强”,而是双方站在什么样的规则场地上。即便防御方投入更多算力、更全知识,只要身处“攻击者主导的赛场”,依旧难以摆脱被动;反之,只要防御方占据自己的主场,即便攻击方算力再强、手段再新,也难以突破规则防线。
因此,主场选择,远比重建算力、补充知识、优化策略更关键、更根本、更有效。
在这场AI驱动的安全对抗中,防护路线的选择直接决定胜负。报告明确指出:被动黑名单是攻击者的天然主场,主动白名单才是防御者的绝对主场。
黑名单模式是我们最熟悉的安全逻辑:列出已知的恶意程序、攻击行为、危险地址,发现匹配项就拦截。这种模式本质是“被动挨打”——攻击者只要稍作修改,就能生成新的未知恶意样本,绕过黑名单检测。在AI加持下,攻击者可以快速变异攻击代码,让黑名单永远滞后于威胁。更关键的是,黑名单需要不断更新威胁库,防御方始终处于“追赶”状态,算力被大量消耗在无效匹配上,完全丧失主动权。无论防御方如何提升算力与策略,都无法在黑名单赛道上赢下攻击方。
白名单则完全相反:只允许已知合法的程序、行为、操作运行,除此之外一律禁止。这种模式从根源上切断了未知威胁的入侵路径,不需要依赖威胁情报,也不需要被动应对变异攻击。1975年国际安全领域经典论文早已证实,白名单的安全效果远优于黑名单;而PC普及时代选择黑名单,只是安全性对通用性的妥协,并非最优技术选择。
在AI时代,白名单的价值被进一步放大。报告提出,自主可信计算,是新一代动态白名单体系,是可以在保持通用性情况下构筑的,真正属于防御者的安全主场。
自主可信并非简单的静态白名单,而是一套“免疫系统式”的主动防御体系:它以可信密码模块(TCM)为信任根,以可信平台控制模块(TPCM)为安全监控平台,以可信软件基(TSB)为核心,将安全计算与业务计算完全分离,安全机制独立运行、最小化实现、不可旁路,完美契合45年前《橘皮书》提出的引用监视器三原则。
与传统静态白名单、半白半黑的零信任架构相比,自主可信动态白名单具备三大核心优势:
1. 属主可控:零信任的信任由厂商定义,而自主可信的信任由系统属主自主决定,可验证、可追溯、可管理;
2. 动态适配:基于业务态势与环境变化,实时调整安全策略,构建动态可信纵深防御体系;
3. 透明兼容:不改造业务系统,以安全代理、安全部件透明接入,适配各类硬件与软件环境。
报告强调,AI时代安全的最优路线已经清晰:放弃被动黑名单,以自主可信建设防御主场,用动态白名单实现主动防御。这一路线既符合我国网络安全合规要求,又能应对AI驱动的新型威胁,是信创产业、关键信息基础设施、AI系统安全的必然选择。

二、安全逻辑全新转换:自主可信实现业务导向的灵活适配,重构安全开发与集成模式
过去,安全建设一直遵循“自底向上”的固定逻辑:首先为网络信息系统部署安全产品,实施安全管理,在此基础上再配置安全策略、修补安全漏洞。这种模式导致安全与业务割裂,安全机制难以融入业务流程,不仅部署成本高、适配难度大,还容易影响业务效率,最终形成“安全与业务对立”的困境。尤其在自主可信计算产业链逐步成熟的当下,底层可信芯片、硬件、基础软件已初具规模,但集成与应用环节成为明显瓶颈——安全可信组件难以快速适配业务场景,安全机制无法灵活组合,导致安全保障能力难以落地。
在本次OS2ATC会议的报告中,胡俊院长提出了颠覆性的安全逻辑转换:自主可信计算可以先根据业务需求输出安全解决方案,再融合适配任意组合的安全机制流程与要求,彻底实现“安全与业务协同、安全为业务服务”的全新模式。
这一转换的核心,是自主可信计算具备标准化、模块化、通用化的底层能力,而支撑这一能力的关键,就是报告重点发布的Cube通用可信基础软件。

Cube是突破可信计算产业链集成与应用瓶颈的核心创新,它遵循我国可信计算核心组件标准和体系架构标准的要求,对标Linux系统架构,分为三层通用设计:
1. CubeOS通用TPCM操作系统:仅底层代码与硬件平台相关,可在不同可信硬件上移植,解决可信硬件兼容性问题;
2. 安全可信功能组件集:将密码算法、安全协议封装为“库函数”组件,将外部安全机制封装为“驱动”组件,可适配各种类型的安全机制;
3. 可信软件基:以积木组合方式,低代码搭建安全监控流程,大幅降低了安全机制开发的复杂度。
基于Cube通用可信基础软件,自主可信计算实现了全流程标准化安全开发规程,分为五个阶段:
1. 准备阶段:安全机制与CubeOS完成适配,统一接口标准;
2. 设计阶段:结合业务主客体关系,明确安全监控与控制要求;
3. 开发阶段:分解安全需求,搭建安全监控流程的模块与路由;
4. 部署运行阶段:将安全流程嵌入系统,实时监控业务行为;
5. 测试评估阶段:验证安全效果,持续优化方案。
这套体系让安全建设不再是“事后补救”,而是事前规划、事中适配、全程协同。面对不同业务场景——如云平台、物联网、工控系统、数据流通、AI服务、低空经济、车联网等,自主可信计算可以先梳理业务安全需求,快速输出定制化安全解决方案,再通过Cube的通用适配能力,灵活组合身份认证、访问控制、行为度量、操作审计、密码保护等安全机制,无需重复开发、无需改造业务、无需兼容适配大量硬件。
报告进一步阐释了AI辅助提升可信开发效率。依托自主可信计算底座,AI可深度介入安全全生命周期:在需求阶段智能解析业务场景与合规要求,自动生成可信度量规则与访问控制策略;在开发阶段基于大模型完成组件组合、流程编排与接口适配,快速生成可信监控链路;在测试阶段通过虚拟仿真环境开展自动化攻防验证与漏洞挖掘,智能优化安全路由。同时AI可对可信行为日志实时分析,异常行为精准识别、风险动态处置,让可信机制从“固定配置”升级为“智能自适应”,大幅缩短方案落地周期,降低复杂业务场景的可信开发门槛。
同时,报告还提出了自主可信计算开源社区“横向社区”规划,结合自主可信计算的集成能力,通过在安全设计全过程中提供AI辅助,并采用AI设计工具在虚拟化环境中进行自我验证,基于虚拟环境联通云计算、数据流通、嵌入式、WebUI、虚拟现实等不同领域社区,实现“由实入虚构建模拟环境、由虚化实适配安全机制”,进一步降低可信技术的应用门槛,推动自主可信生态全面开放与普及。

三、AI辅助安全核心:分而治之+控制闭环,大幅降低安全开发门槛
当前AI安全研究存在明显误区:大量资源集中在AI赋能攻击、黑名单防御强化,而在白名单、自主可信领域的AI应用研究几乎空白。在报告第三部分,胡俊院长明确指出:AI辅助自主可信安全设计,才是未来安全发展的核心方向,其核心方法是分而治之+控制闭环,最终价值是全面降低安全开发门槛,让普通人也能搭建高安全级别的可信系统。
AI本质是“模仿者”,当问题复杂度超过其学习能力时,效果会大幅下降。直接让AI处理完整的安全设计任务,很容易出现逻辑错误、幻觉、适配失效等问题。因此,报告提出分而治之的核心思路:把复杂安全任务拆解成小任务,分阶段、分层次、分模块、分状态处理,每个小任务简单清晰,适配AI能力。
在自主可信体系中,分而治之体现在三个层面:
1. 开发流程分治:传统安全开发混杂平台、管理、业务、测评安全;自主可信模式将可信层、安全层、业务层解耦,分层设计、独立开发、协同运行;
2. 系统层次分治:业务层负责功能实现,安全层负责透明防护,可信层负责策略与审计,三层通过标准接口对接;
3. 任务模块分治:将安全监控流程拆分为独立组件,AI逐个处理组件开发、配置、适配,降低整体难度。
与分而治之配套的,是控制闭环机制,形成完整的AI辅助安全开发循环:
1. 信息生成:清晰描述安全需求、业务场景、设计目标,形成标准化文档;
2. 信息输入:围绕任务精准输入数据,无冗余、无冲突;
3. AI处理:通过多次交互完成代码生成、流程设计、配置优化;
4. 运行验证:通过程序测试、模拟仿真、侧面验证,校验AI输出结果;
5. 结果分析:定位问题、纠正偏差、消除幻觉,持续优化AI行为。
“分而治之+控制闭环”的组合,让AI从“不可控的创意工具”变成“可靠的安全开发助手”。报告展示了在CubeOS-1.5系统下的实测成果:
架构开发:AI完成95%以上新代码生成,实现旧代码重构与移植;
模块开发:形成标准化模块范式,代码通过率大幅提升;
方案开发:支持学生全程AI辅助完成安全方案设计,验证可视化开发可行性。
这一成果的核心价值,是彻底降低安全开发门槛。过去,开发可信系统需要精通可信计算、密码学、操作系统、安全协议的高级专家,开发周期长、成本高、难度大;而在AI辅助下,开发者只需明确业务安全需求,AI就能自动完成代码生成、流程搭建、适配部署,专家只需负责审核与优化。
为了推动这一能力普及,报告还发布了异构兼容的物联网可信实训平台,支持兵棋、沙盘、演习场三种模式,覆盖从基础技能到综合设计的全流程实训,提供标准化开发规范与用例,让高校、企业、开发者快速掌握AI辅助自主可信开发方法。

报告最后总结:安全可信是可靠、安全、可信的协作过程,自主可信是开放协同的安全生态,AI辅助则大幅降低生态协作门槛。未来,自主可信计算将以动态白名单构建安全主场,以通用架构适配各类系统,以AI辅助实现规模化落地,为AI时代的网络安全、信创产业、关键信息基础设施保驾护航。

四、结语
本次OS2ATC会议上发布的这份研究报告,不仅是可信计算与AI安全领域的理论创新,更是面向产业落地的实践指南。它厘清了AI时代安全的本质与路线,重构了安全与业务的逻辑关系,提供了低门槛的AI辅助开发方法,为我国构建自主可控、安全可信的网络安全体系提供了坚实支撑。随着自主可信计算与AI技术深度融合,安全将不再是业务的负担,而是数字经济高质量发展的坚实底座。


end

夜雨聆风