筑牢安全防线 规范使用AI智能体
5月6日,《大连日报》08版刊发我校教学研究部教师孔明的文章《筑牢安全防线 规范使用AI智能体》。


筑牢安全防线 规范使用AI智能体
当前,开源AI工具凭借其自主任务执行与用户习惯学习能力,成为数字化转型领域的热门工具。它打破了传统软件“只给建议、不做实事”的局限,能处理文件、安排日程、优化流程,为各行各业带来效率提升。然而,技术热潮之下,设备被操控、数据被泄露等安全风险也随之显现。近期多位数据安全专家指出,若开源AI工具默认安全配置薄弱、权限授予过高,一旦使用不当,可能导致办公设备被操控、敏感信息被泄露。对于掌握大量敏感数据的党政机关和企事业单位而言,如何在拥抱新技术的同时筑牢安全防线,是须审慎思考的重要课题。
理解AI智能体的安全风险,首先需认识其技术特性与传统软件的本质差异。传统软件执行的是确定性指令,而AI智能体具备自主感知、决策与执行能力,能在无人干预的情况下完成复杂任务。这种“自主性”恰恰是安全风险的技术源头。
从技术架构看,开源AI工具作为开源框架,其核心优势在于开放的生态和强大的扩展能力,但也因此面临几重技术挑战:一是权限管理粒度粗放,用户在追求便利时往往授予过高权限,为恶意利用留下空间;二是第三方插件的安全审查缺失,开源生态中各类插件良莠不齐,可能存在后门或漏洞;三是行为不可预测性,大模型自身的“黑箱”特性使得智能体的决策过程难以完全审计,一旦出现异常行为,干预滞后。
正是这些技术特性,决定了AI工具的应用必须坚持“安全左移”原则——在技术引入阶段就充分考虑安全约束,而非事后补救。近期一项联合研究揭示,在企业环境下,AI智能体存在严重失控风险,仅靠优化提示词或设置模型护栏已无法解决问题。这一技术研判提醒我们:当AI开始掌握权限、自主交互,安全设计必须从源头嵌入。
从政策层面看,辽宁正积极抢抓人工智能发展机遇。2025年6月,辽宁省政府办公厅印发《辽宁省促进人工智能创新发展实施方案》,提出到2027年攻克100项以上关键技术,培育300家以上人工智能规上企业,打造8个融合发展产业集群,深入实施“人工智能+”行动,赋能千行百业。这一顶层设计为AI工具的规范应用提供了政策指引。
大连市作为辽宁省人工智能发展的“双核”之一,出台了《大连市人民政府关于推动人工智能产业高质量发展的实施意见》,明确提出建设推广行业垂直大模型、聚力“机器人+”研发应用、加速全域场景应用等任务,并从算力基础、平台建设、技术创新能力等方面夯实产业基础。文件特别强调,要“加强技术伦理、数据隐私保护等研究部署,促进人工智能健康发展。”体现了发展与安全并重的理念。
这些政策导向表明,人工智能的应用不是“野蛮生长”,而是要在规范中发展、在安全中赋能。对于党政机关和企事业单位而言,引入AI工具必须与政策要求同向而行。
基于对技术特性的分析和政策导向的把握,规范使用AI智能体,应构建“技术—制度—责任”三层治理模型,让安全赋能从理念落地为实践。
第一层:技术治理——权限收敛与行为可审计。技术层面的治理是安全赋能的底座。针对AI工具的特性,应在部署阶段落实“最小权限原则”。对于党政机关和涉及敏感数据的企事业单位,不应将此类工具直接暴露在互联网环境,而应置于内部安全网络之中,通过统一的身份认证与访问控制层,对智能体的每一次数据访问请求进行严格鉴权。同时,应建立完整的行为审计日志,对文件删除、数据外发等高风险操作实施“二次确认”机制,确保关键动作可追溯、可干预。
第二层:制度建设——规范流程与意识培养。制度是技术落地的保障。党政机关应结合政务工作实际,制定AI工具使用管理办法,明确使用范围、权限边界和操作流程,将安全使用纳入日常管理规范。企事业单位可对数据采集、分类、分级和标准化处理建立全流程规范,通过可信数据空间技术实现安全可控的数据共享。此外,常态化开展安全意识培训不可或缺,通过典型案例警示教育,帮助工作人员摒弃“重效率、轻安全”的观念,形成“人防+技防”的双重防线。
第三层:责任落实——明晰权责与闭环管理。责任不清是安全风险的重要源头。党政机关应明确AI工具使用的责任分工,将安全使用纳入绩效考核,形成层层落实的工作格局。企事业单位要指定专人负责日常管理和安全检查,及时排查安全隐患。个人用户也要养成安全习惯,发现问题及时反馈。更重要的是,应建立风险应急处置机制,一旦出现异常行为,能够快速识别、果断干预、有效止损。
人工智能是推动发展的新动能,但技术始终是工具,人才是目的。技术只有在规范使用的前提下,才能真正服务于发展、方便于生活。坚持守正创新、安全赋能,就是要让AI智能体成为党政机关高效履职的“数字帮手”、企事业单位转型升级的“得力助手”,而非失控的风险源。这还需技术开发者、政策制定者、最终用户各司其职、协同发力,在拥抱技术红利的同时守住安全底线,让人工智能真正为高质量发展注入强劲数字动力。

夜雨聆风