关于Agentic AI未来监管方式的六点预测
作者:袁立志王嘉妮
作为继Generative AI(生成式人工智能)之后的新一代技术范式,Agentic AI”(介体式人工智能)或AI Agent(智能介体,或智能体),正在将人工智能的应用模式从“内容生成“向“任务执行“推进,其高度自主性、任务拆解能力以及跨系统的工具调用权限等特性,带来新的风险。
近年来,许多国家出台人工智能监管文件,其中中国以算法备案和大模型备案为核心,通过数据标注规范、训练数据合法性审核、AI标识以及安全评估等措施,基本建立起针对Generative AI的监管体系。随着Agentic AI的出现,现有的人工智能法律监管体系面临新的挑战。本文基于对国内外最新监管动态,结合中国现有监管体系,对未来可能出台的针对Agentic AI的监管措施作出若干预测,供相关企业参考。
一、Agentic AI的技术质变与新风险
Generative AI本质上仍属于信息处理工具,其输出为文本、图像、音视频或代码等,需经由人类判断与执行方能产生现实法律效力。相比之下,Agentic AI不再是单纯的工具,而是可以执行多种任务、对现实世界直接产生影响的助手或代理人。这个“助手”或“代理人”几乎是字面意义上的,已不再是比喻的说法或对未来的憧憬。
目前对AI Agent的公认理解是:Agent(智能体) = Model(模型) + Harness(马具)。Model提供智能,Harness让智能变得有用。Agentic AI在技术层面的质变可以从三个维度理解:
一是自主性层级的提升。学界通常将AI的自主性划分为五个层级,从Level 0(完全工具辅助)到Level 4(完全自主)。Generative AI处于Level 0至Level 1,而当前商业化部署的Agentic AI已进入Level 2至Level 3,即能够在无需逐步人工确认的情况下完成复杂多步骤任务。新加坡IMDA在其2026年发布的《Agentic AI模型治理框架》中采用了类似的渐进式自主级别分类,并据此设置差异化的治理要求。
二是工具调用能力的扩展。Agentic AI通过MCP(模型上下文协议)、API调用、代码执行环境等多种接口,可对外部系统实施读取、写入、执行等操作。这一能力不仅扩展了其影响边界,也使其潜在的损害范围远超Generative AI。
三是记忆模块的持久化。部分Agentic AI具备长期记忆能力,可在会话之间保留用户信息与历史操作记录。这一特性在提升任务连贯性的同时,也带来了信息安全与隐私保护的新挑战——记忆模块一旦被污染,将对Agent的持续决策产生深远影响。
正是因为上述技术特性,Agentic AI带来了一系列新型风险。根据OWASP于2025年12月发布的《Agentic Applications Top 10》,AI Agent系统的十大安全风险包括:Agent目标劫持、工具滥用与利用、身份与特权滥用、Agent供应链漏洞、非预期代码执行、记忆与上下文投毒、不安全的Agent间通信、级联故障、人机信任利用以及失控Agent。
二、全球Agentic AI监管探索的最新进展
截至2026年4月,为应对Agentic AI带来的新风险,中国及海外多个国家出台相关文件,探索针对Agentic AI的监管措施。各国的切入角度与治理路径存在差异,但整体上呈现出从碎片化应对走向系统性治理的演进趋势。
1.既有AI立法延伸适用路径
欧盟人工智能办公室已出台关于AI Act的FAQ文件,指出Agent通常同时符合“AI系统”与“通用人工智能模型”的双重定义,现行规则可无缝适用,但针对Agent自主性与工具调用能力带来的新型风险,其表示将在必要时制定专属应对策略。AI Act关于高风险AI系统的强制性义务(包括符合性评估、技术文档、人类监督、数据库注册等)将于2026年8月2日全面生效,对具有显著影响的Agentic AI应用将产生直接约束。
2.数据保护路径
西班牙数据保护局(AEPD)和土耳其个人数据保护局(KVKK)均已关注AI Agent对隐私规定的冲击并出台相应文件,核心判断一致:用户最初的目标性授权无法涵盖Agent后续所有自主操作,传统告知同意框架在Agent场景下存在适用困境。
英国信息专员办公室(ICO)于2026年1月8日发布Agentic AI风险报告,指出Agentic AI系统的设计直接影响其数据保护风险。设计不良的系统(如缺乏明确目的、访问不必要的数据库或缺乏控制行动/数据共享的安全保障)会增加风险;反之,强大的系统架构能够支持“默认隐私设计”和负责任的创新。ICO明确将Agentic AI系统纳入“隐私影响评估”(DPIA)的评估范围。
3.网络安全路径
中国的全国网络安全标准化技术委员会(TC260)于2026年3月发布《网络安全标准实践指南――OpenClaw类智能体部署使用安全指引(征求意见稿)》)(以下简称“《安全指引》”)。该草案围绕安装、配置、使用、卸载全流程给出安全指引,明确云环境选择的平台、身份、网络、运行、供应链五大安全能力,提出资产登记、影子智能体排查、日志记录等组织管理措施。
新加坡网络安全局(CSA)发布的Agentic AI安全补充指南,要求通过Agent身份凭证、沙盒隔离和API前置拦截构建技术防线,并明确规定日志记录除最终结果外,须覆盖中间推理过程,以确保完整的行为追溯链条。
美国国家标准与技术研究院(NIST)则于2026年2月宣布启动“AI Agent标准倡议”(AI Agent Standards Initiative),目前正向业界征集关于AI Agent安全、身份验证和授权的概念性文件,重点聚焦于代理身份与认证、行动日志与可审计性,以及自主操作的控制边界。
4.竞争与消费者保护路径
英国竞争与市场管理局(CMA)于2026年3月9日发布《使用AI Agent时遵守消费者法律》指南,这是目前全球首份专门针对Agentic AI商业使用的消费者法律合规指南。该指南确立了四项关键合规原则:
●透明度:向客户明确告知其正在与AI而非人类交互;
●合规设计:通过微调、推理层防护栏和合规规则集,将消费者权利法律嵌入AI运营;
●人工监督:持续监控AI代理,确保其按预期合法运行;
●快速补救:发现问题时迅速干预,防止大规模损害扩散。
CMA特别指出:部署AI代理的企业(而非模型设计/训练公司)承担消费者保护法合规的法律责任。违规者最高可被处以全球营业额10%的罚款。
在竞争层面,CMA亦指出,多个定价Agent之间可能形成隐性价格共谋,且Agent一旦超越用户初始授权范围执行操作,企业须承担相应法律责任。
5.系统性治理框架
新加坡资讯通信媒体发展局(IMDA)于2026年1月22日在达沃斯世界经济论坛上发布的《代理式人工智能模型治理框架》(MGF),系目前全球首个针对Agentic AI的系统性治理框架,已在全球监管界引发广泛关注。
框架首先界定Agentic AI的核心特征:以大语言模型为推理内核、具备工具调用接口、记忆模块及多Agent协作架构,并明确指出其风险已延伸至错误行动、越权操作、工具滥用及多Agent交互引发的连锁反应。在此基础上,框架提出四大治理维度:
一是前置风险评估与约束:根据敏感数据访问范围、写入权限、任务复杂性和自主性水平进行威胁建模,通过权限控制、SOP限制及沙盒环境将风险限定在可控范围,并为每个Agent分配唯一身份以实现行为可追溯。框架还创新性地引入了“AI Agent Identity Cards”(AI代理身份卡)概念,要求以标准化格式披露Agent的能力、限制、授权行动域及升级协议。
二是强化人类问责:在关键决策点设立强制审批,并明确组织内部(决策层、产品团队、网络安全团队)及外部(模型开发者、工具提供商)的责任边界,依据自主级别设置差异化的人类监督强度。
三是技术控制与流程管理:在设计阶段增加反思机制、限制工具权限,部署前对多步工作流及多Agent系统进行系统测试,上线后实施渐进式部署与实时监控。
四是终端用户责任:通过透明告知与培训引导用户理解Agent的能力边界与操作限制。
6.主要国家Agentic AI监管探索汇总
主要国家2025-2026年度Agentic AI监管探索进展汇总如下:
|
法域 |
监管路径 |
代表性文件/举措 |
发布时间 |
|
新加坡 |
综合治理 |
IMDA《代理式AI模型治理框架》 |
2026.01 |
|
英国 |
消费者保护+数据保护 |
CMA《使用AI Agent时遵守消费者法律》指南、ICO Agentic AI风险报告 |
2026.03 / 2026.01 |
|
欧盟 |
既有AI立法延伸适用 |
AI Act FAQ(Agent适用)、AI内容标记守则、举报工具上线 |
2025-2026 |
|
美国 |
网络安全 |
NIST AI Agent Standards Initiative |
2026.02 |
|
西班牙/土耳其 |
数据保护 |
AEPD/KVKK Agent隐私指导文件 |
2025-2026 |
|
中国 |
网络安全 |
《安全指引》 |
2026.03-04 |
综合上述规定,虽各国在切入视角上存在差异,但“权限的事前限制、人类确认节点的嵌入、行为日志的可溯源性“等监管措施已形成较高共识。
三、对Agentic AI 未来监管方式的预测
预测1:差异化准入备案制度
针对Generative AI,中国建立了算法备案和生成式人工智能服务备案制度。我们预测,中国可能在既有备案制度基础上,向Agentic AI应用层面延伸,建立独立的“Agentic AI应用分级备案制度“。
在备案的审查维度上,Agentic AI专项备案将有别于模型层面的内容安全审查,而是聚焦于以下事项:其一,Agent可调用的外部工具类别与API接口范围的申报,即审查AI操作能力边界的基础信息;其二,Agent设计执行的任务场景分类(信息检索类、商业交易类、系统指令执行类、跨平台数据处理类等),不同任务场景的风险等级存在差异;其三,Agent在具体场景下所能触及的最高权限等级的声明(如是否具备发起支付、签署合同、访问境外服务器的能力);其四,针对高敏感度操作的预设限制措施的技术说明。
在备案触发条件与分级机制上,未来针对Agentic AI的备案管理可能以“操作权限等级“与“任务影响范围“作为分级维度:涉及金融支付、合同缔约、医疗诊断、公共服务接入等高风险Agent,须接受强制备案审查;以信息检索、日程管理、文档生成为主要功能、操作权限仅限于“只读“类别的低风险Agent,则适用豁免或简化登记机制。
此外,考虑到Agentic AI技术迭代速度,监管还可能引入“动态更新报告义务“,即当Agent应用发生重大功能更新、新增工具调用接口或扩展操作权限范围时,须在特定期限内向监管报告,以确保备案信息的持续有效性。
预测2:操作权限清单与人类确认机制
Agentic AI在执行任务时,用户往往只描述目标而非操作路径,导致Agent存在越权操作的风险。这一风险的制度回应,可能体现为两个层面:其一,通过“操作权限清单“在事前划定Agent的能力边界;其二,通过强制“人类确认节点“对高风险操作实施干预。
首先,未来监管可能要求Agentic AI开发者和部署者建立“操作权限清单“,将Agent的操作类型进行声明,区分“只读权限“(仅可获取信息,不可写入或修改)、“写入权限“(可创建、修改文件或数据)、“执行权限“(可执行代码或系统指令)、“交易权限“(可发起金融支付或资金划转)、“通信权限“(可向外部主体发送邮件、消息)以及“法律行为权限“(可代表用户签署合同、提交申请等法律效力文件)。上述权限清单须在产品设计层面通过技术措施予以落实,而非仅依赖文字声明。
其次是“人类确认节点“的引入。对于涉及不可逆的高风险操作,包括但不限于资金划转超过特定金额阈值、合同文件签署、重要数据永久删除、向境外服务器传输数据等,监管可能要求Agent在执行前必须触发强制性的人类确认,且该确认须通过可验证的技术手段(如独立于Agent运行环境的二次确认界面、人脸识别或数字签名等)予以固化,而非仅在Agent内部以逻辑判断方式实现。
中国的《人工智能安全治理框架》2.0版在高风险应用场景下明确提出建立“熔断“机制和“一键管控“措施,要求当AI引入高度自主的操作能力时,可以在极端情况下迅速介入紧急停机。除此之外,中国的《安全指引》第6.2条d项要求“建立白名单机制,仅允许白名单中的Skills、插件、MCP等被调用“,第6.2条e项要求“根据使用需要对Agent的权限进行动态调整“。新加坡《Agentic AI模型治理框架》第2.3.1节亦明确建议对数据相关工具实施“不授予Agent对敏感数据库写入权限“的原则,并要求“配置工具以强制采用严格的输入格式“。上述规定均体现了“将人类控制嵌入技术架构“的监管理念,可以合理预期未来会以该理念为主导出台相关的规定。
预测3:操作日志审计与留存制度
鉴于Agentic AI行为的高度自主化特性,事后追责与监管执法高度依赖操作记录。这使得强制性操作日志留存义务的引入具有较高必要性,中国的《网络安全法》已就网络运营者留存不少于6个月的网络日志作出规定,为进一步细化提供了制度基础。
未来针对Agentic AI的日志可能要求记录以下内容:每一次外部工具调用的请求参数与响应结果;每一次对外部系统的写入、修改或删除操作的完整记录;每一个人类确认节点的确认信息;Agent任务执行过程中的推理过程与决策依据;以及与操作结果存在直接因果关联的上下文状态信息等。
在留存期限方面,参照数据安全分级管理的规定,可能依照操作风险等级设置差异化的留存期限:低风险操作日志留存不少于6个月;高风险操作(涉及金融交易、合同缔约、医疗操作等)日志留存不少于3-5年;关键信息基础设施中部署的Agent操作日志可能须延长至更长期限。
在日志的防篡改保障与调取机制方面,未来监管可能要求操作日志采用具有防篡改特性的存储技术(如加密哈希链、时间戳公证等),确保日志在事后调取时的准确性与完整性。与此同时,监管在特定事件调查中的日志调取权限,以及调取程序的正当性保障(如须凭合法授权令等),亦将在规则层面得到明确,以实现监管有效性与数据合规要求之间的平衡。
现行文件已对日志记录的内容维度作出具体列举。《安全指引》第7.4条f项要求云环境具备“日志记录能力,记录内容包含Agent的操作记录、操作时间、工具调用等信息,并保障日志信息完整性,支撑日志审计和行为溯源“;第8条d项进一步要求组织“对受管控的Agent的所有活动进行日志记录,使用人工智能等技术手段对Agent的行为模式进行风险分析,并周期性检查有潜在风险行为的日志且进行及时有效处理,确保可审计、可溯源“。
预测4:Agent身份标识制度
中国已在AI标识义务层面构建起较为完整的制度。《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章,分别就算法生成、深度合成及AIGC的标识提出了要求。在此基础上,《人工智能生成合成内容标识办法》(下称“《标识办法》”)于2025年9月1日正式施行,配套强制性国家标准《网络安全技术人工智能生成合成内容标识方法》(GB 45438—2025)同步实施。《标识办法》确立了“显式标识+隐式标识“双轨机制:显式标识须以文字、声音、图形等方式在内容界面中呈现,使用户可明显感知;隐式标识则须采取技术措施在文件元数据中嵌入生成合成属性信息、服务提供者编码及内容编号等要素。
然而,上述制度的客体为AI生成的“内容“,当Agentic AI以对外发送信息、签署文件或执行具有法律效力的操作时,其风险已不限于“内容混淆“,而在于相对方可能在不知情的情况下与Agentic AI形成具有法律约束力的交互,从而动摇其知情权与意思自治基础。
对此,我们预测,未来在《标识办法》所确立的双轨机制基础上,将进一步建立“Agent身份标识“制度,要求所有对外执行具有法律效力操作的Agent,须在操作记录与对方感知界面中附加机器可读的身份标识元数据,包含Agent类型、部署者信息及操作授权范围等要素,以弥补现行内容标识制度对Agent行为的空白。
预测5:Agent身份凭证制度
现行法律体系预设“操作主体“为人类,以人类为责任认定及权限核验的起点。然而在Agent场景下,这一前提不再成立:同一账号下可能并发运行多个Agent,被调用方无法判断具体是哪一Agent在实施操作;单一Agent可能在同一任务中代表具有不同权限的多个用户行事,其实际行使的权限边界难以确定;在递归委托场景中,上级Agent将任务拆解并分发给多个子Agent,各节点究竟以谁的身份、在何种授权范围内行事,缺乏统一的识别与核验标准。这一身份模糊性,是越权操作发生后难以锁定责任节点、还原责任链条的底层原因之一。
与上述Agent身份标识制度不同的是,两者虽均涉及Agent身份,但功能定位存在差异。身份标识制度的核心功能是知情保障:通过强制要求Agent在与相对方交互时披露AI身份,使相对方知晓其交互对象并非人类,从而避免混淆。身份凭证制度的核心功能则是事前拦截:Agent在向外部系统发起调用时须出示凭证,被调用方对凭证的有效性与权限范围进行实时核验。
我们预测,未来监管可能推动建立Agent唯一身份凭证制度。在凭证内容上,应至少包含Agent唯一标识符、颁发主体及时间、授权操作权限范围及有效期信息。在凭证安全管理上,应采用短期轮换机制,凭证在Agent完成特定任务后即行失效,并严格隔离各Agent的角色与凭证,防止权限交叉。在接口核验上,凡接受Agent调用的外部API接口或跨系统服务,须在响应请求前对Agent出示的凭证进行实时验证,核查其有效性、签发主体及权限范围是否覆盖本次操作,对凭证缺失、已失效或越权的请求拒绝响应。在凭证吊销上,Agent发生权限变更或存在安全漏洞时须及时启动吊销程序,并将记录纳入可公开查询的凭证状态数据库。
新加坡已在《Agentic AI模型治理框架》中明确建议为每个Agent分配唯一身份标识,并维护可信Agent注册表,通过强认证机制对Agent进行身份验证。中国也在《安全指引》、《AI Agent安全实践指引》均提到了Agent统一身份管理及相应的身份验证措施。除此之外,中国在非人类主体身份凭证领域已有先例,如团体标准《复合机器人应用身份标识与身份认证规范》对于复合机器人规定了基于唯一身份标识的认证机制,要求通过技术手段对机器人的身份信息进行验证,确保接入系统或执行操作的机器人身份真实可信。
预测6:多主体的问责框架
从研发测试到部署运行,Agentic AI涉及多种法律主体,监管如何问责是一个问题。参考以往经验,我们预测,监管可能建立多主体分层问责框架:
|
责任主体 |
法律角色定位 |
法律责任 |
典型问题场景 |
|
底层模型提供者 |
提供Agent运行所依赖的基础能力,其模型的安全边界直接决定Agent的行为上限 |
网络产品与服务提供者责任 |
模型因未设置有效拒绝机制,被诱导执行删除数据库、大额转账等越权操作 |
|
Agent应用开发者 |
将底层模型能力封装为具体Agent产品,其设计决策直接塑造Agent的权限范围与行为逻辑 |
网络产品与服务提供者责任 |
(1)权限配置过宽导致Agent可访问非必要系统资源;(2)缺少人工确认节点导致Agent自动执行高风险操作 |
|
企业部署者 |
将Agent产品引入具体业务场景,其部署决策决定Agent实际接触的数据范围、用户群体与操作权限 |
网络运营者及数据处理者责任 |
(1)未评估高风险场景即部署Agent处理敏感业务;(2)未对员工培训导致员工误用Agent权限;(3)事故发生后因无应急机制导致损害扩大 |
|
终端用户 |
向Agent发出指令并决定是否干预其执行过程,是Agent行为的直接触发者 |
使用者责任 |
(1)用户故意提供错误信息诱导Agent损害第三方;(2)用户伪造授权凭证扩大Agent操作权限 |
四、结语
Agentic AI的出现标志着人工智能由“内容生成”向“任务执行”跃迁,对各国既有的AI法律监管体系提出实质挑战。当前各国对于Agentic AI的监管措施仍处于探索阶段,路径各不相同,但在权限限制、人类确认、AI标识、身份认证以及问责体系等方面逐渐形成共识,未来监管方式的雏形日渐显现。我们对未来监管方式的六点预测,有助于相关企业了解监管趋势,在合规建设方面未雨绸缪。

夜雨聆风