乐于分享
好东西不私藏

观点 | 我院举办AI智能体安全风险治理前沿问题学术研讨会

观点 | 我院举办AI智能体安全风险治理前沿问题学术研讨会

飞速发展的AI智能体行业对法律制度供给与优化提出新要求,技术创新与法治建设协同成为智能时代重要课题。2026年4月17日,北京科技大学文法学院成功举办“AI智能体安全风险治理前沿问题学术研讨会”。与会专家围绕人工智能监管基础问题、智能体安全框架、知情同意制度重构、风险治理路径等议题展开深入研讨。会议由北京科技大学文法学院法律系副教授邹亚莎主持。

北京科技大学文法学院副院长王霁霞教授出席并致辞。她从科技法治与AI产业发展的关系出发,强调完善人工智能法律监管制度,离不开法学界与产业界的密切沟通、协同发力。

主旨发言阶段,中国政法大学法治政府研究院院长赵鹏教授围绕人工智能监管的基础性问题展开分析。他提出,智能体监管应当纳入人工智能整体立法与监管框架。学界对人工智能综合立法存在分歧,也有观点认为强监管会阻碍产业发展,而新近研究表明,欧洲数字产业发展滞后主要受市场分割等因素影响,并非监管本身所致。今年全国两会已明确推进国家层面人工智能综合性立法,立法技术与监管框架的科学性将直接影响产业发展环境。当前人工智能立法监管面临三大难题:一是人工智能作为通用技术跨行业差异显著,统一规则提取困难、监管模式有待抉择;二是人工智能与传统技术监管存在断裂,技术迭代快、可解释性不足等矛盾突出;三是技术滥用风险上升,开发者防控义务与责任边界不明确。人工智能监管存在统一立法与分领域发展、类人智慧与工具可控、防控滥用与责任有限三重核心张力,亟需构建政府、社会、产业界、学术界协同共治的整体治理体系。

中国人民公安大学数据法学研究院院长苏宇教授就智能体安全框架与法律介入限度作专题发言。他指出,当前智能体攻击频发、自身安全缺陷突出,存在十大攻击面、六段攻击链,主要集中在输入插件层和调度执行层,恶意指令易通过多渠道植入并绕过安全审查,引发越权操作、容器逃逸、远程控制等风险,局部安全标准难以保障整体安全。构建整体安全框架,需强化身份锚点与授权管理、区分数据与指令、严格调度与容器权限、实现执行语义防护、构建跨层协同防御。法律与技术之间存在明显鸿沟,法律介入应守住安全底线与伦理红线,厘清法律与行业标准的分工,审慎依托关键标准管控核心技术节点;同时把握介入限度,不固化技术路线、不进行过度细节化规制,并设置安全港规则。法律介入时机宜偏晚,前期可依托技术标准、现行法律解释和部门规章开展规制,待试点成熟后再提升立法位阶。

北京航空航天大学法学院副教授赵精武以AI智能体场景下知情同意制度重构为主题作分享。他提出,现行《个人信息保护法》中的执行同意规则,以及僵化适用的最小必要原则,已严重制约智能体产业发展,匿名化规则适用效果不佳,个人信息范围存在过度泛化问题。智能体在全局记忆、数据采集等场景中普遍突破现有合规框架,存在超范围授权、隐私数据外溢、误执行等风险。随着智能体从增值服务转变为基础性服务,传统知情同意与最小必要逻辑已难以适配。未来应当重构最小必要原则适用逻辑,以权益影响最小为核心替代单纯的数量控制,并结合比例原则重新阐释适用。随着《个人信息保护法》即将进入修改周期,其个人信息定义、匿名化规则以及最小必要原则,均需结合智能体产业实践作出相应调整。

美团数据和隐私保护负责人朱玲凤结合企业实践,探讨了AI智能体的风险生成逻辑与治理路径。她认为,当前智能体已可实现对同事、名人乃至逝者的能力模板萃取,形成从技能复刻、人格化蒸馏到反蒸馏反抗的完整谱系,实现隐性知识与个体决策逻辑的剥离复制。企业可借此固化核心能力、降低对核心人才的依赖,而个体则因核心能力被抽取、面临替代风险产生抵触。这一现象带来数据采集边界模糊、人格权益界定困难、隐性知识权属不明、决策责任归属不清等多重法律冲突,尚未植入智能体的能力模板更是处于现有法律规制盲区。以“人”为核心的传统法律逻辑难以适配新场景,亟需重构规则以应对劳动力组织形态与能力归属的深刻变革。

评议交流环节,与会专家分别从产业实践、学术研究等视角展开深入讨论。

蔚来法律创新研究院执行院长熊涛结合自身从业经历提出,应对人工智能技术持开放包容态度,并介绍了蔚来正在建设的以大模型为核心的AI法务服务平台;他呼吁法学从业者主动拥抱技术,鼓励青年学生突破传统发展路径,积极把握人工智能时代产业机遇。

美团数据法务总监田喜清表示,智能体安全问题已引发多方高度关注,现有法律体系可为人工智能治理提供基础依据,未来需创新监管模式、细化适用规则,构建多方协同治理格局。

北京科技大学文法学院副院长杨志云教授提出,人工智能治理需统筹科技与人文、安全与风险、秩序与活力三重关系,兼顾公众视角、权力视角与社会情绪,理性看待技术带来的机遇与焦虑;当前人工智能技术迭代迅速,宜以部门规章先行监管,暂不宜以刚性法律全面约束,且现阶段人工智能尚未达到真正智能,短期内难以形成成熟有效的监管方案。

国家知识产权局挂职干部、院长助理王韦玮指出,智能体作为人工智能最新应用形态,面临应用生态封杀、创新环境不足等现实问题,亟需协调智能体厂商与应用厂商关系,释放我国人工智能应用优势。

北京科技大学文法学院副教授刁佳星认为,智能体监管的核心是平衡创新发展与安全可控,应构建灵活的理论框架与细化的制度体系,结合技术特征对传统法律原则进行调试。

北京科技大学文法学院教师曾雄认为,传统新技术风险规制经验可为智能体治理提供借鉴,我国人工智能监管的核心是平衡安全与发展,需要学界与产业界协同深化研究。

北京科技大学文法学院教师张硕提出,个人信息保护中最小必要原则应与目的限定原则衔接,建议在《个人信息保护法》修订中增设知情同意之外的合法性基础。

研讨会最后,北京科技大学文法学院院长毛昊作总结讲话。他指出,智能体安全风险治理的核心是平衡安全与发展,协调好国家安全、个人权利与现代产权之间的关系,以产权制度激发产业活力,秉持包容创新立场,构建多方均衡的治理框架。他还介绍了学院学科发展基础,法学专业聚焦科技法、数字法、知识产权等特色方向,未来将依托多学科优势,深化科技、产业、法律互动,强化产学研合作,持续搭建高水平学术交流平台,扎实推进法学学科高质量建设。

编制|文法学院团委宣传中心

来源|文法学院法律系

编辑|邱薇羽 覃琳焰 肖梦晗

责编|李奕明