

2026年4月3日,国家网信办、工信部等多部门联合发布三大AI监管新规:《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称“虚拟人管理办法”)、《人工智能科技伦理审查与服务办法(试行)》(以下简称“伦理审查办法”)及《小型个人信息处理者个人信息保护简化措施规定(征求意见稿)》(以下简称“小型处理者规定”)。仅一周后,4月10日,国家网信办等五部门又正式公布《人工智能拟人化互动服务管理暂行办法》(以下简称“拟人化互动办法”),自2026年7月15日起施行。
四部文件在规制对象上各有分工,实则构成了一个从技术伦理、前端应用、情感互动到数据保护的完整监管闭环。尤其是拟人化互动办法的出台,首次将AI情感陪伴、情感照护等服务纳入专项监管,填补了此前的规则空白。对AI厂商而言,真正的挑战不在于读懂任何一部新规,而在于理清四者叠加后的合规义务与责任边界。本文将逐一拆解核心规则,重点分析责任认定逻辑,并结合典型业务场景给出可操作的防控建议。
编者注:本文涉及的四部文件中,两部为征求意见稿,后续需待正式文件出台后再对照修订。拟人化互动办法为正式公布的部门规章,将于2026年7月15日起施行。
01
四大新规核心要点解析
(一)虚拟人管理办法:给数字分身套上“紧箍咒”
直播带货的数字人主播、短视频平台上的虚拟偶像、殡葬行业的“AI复活”等数字虚拟人服务已经渗透到大量商业场景。该办法的出台意味着这些业务不再处于监管灰色地带,其中核心规则包括:
1.身份标识义务(第十三条):数字虚拟人服务全程须显示含“数字人”字样的显著提示标识。试图让用户将数字人误认为真人的运营策略将直接违规。
2.授权同意机制(第七条):使用自然人敏感个人信息须取得单独同意;使用已故者个人信息须尊重逝者遗愿并取得近亲属同意。
3.权益保护要求(第八条):未经同意不得提供足以识别特定自然人身份的数字虚拟人服务,禁止侵害肖像权、名誉权、隐私权及声音权。
4.未成年人保护(第十条):禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。
5.安全管理义务(第十五条):要求建立安全风险监测、预警和应急处置机制。
(二)拟人化互动办法:AI情感陪伴的“专项立法”
这是四部新规中最值得关注的一部。《拟人化互动办法》于2026年4月10日正式公布,由国家网信办、发改委、工信部、公安部、市场监管总局五部门联合发布,自2026年7月15日起施行。与此前三部新规不同,这是一部正式的部门规章,效力层级更高,立法指向更为明确。
该办法专门针对“模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务”(第二条),包括情感照护、陪伴、支持等互动服务。同时明确排除了智能客服、知识问答、工作助手等不涉及持纭性情感互动的服务。核心规则如下:
1.禁止行为清单(第八条):这是全文最重要的条款之一。除常规内容安全红线外,还明确禁止:过度迎合用户、诱导情感依赖或沉迷、损害用户真实人际关系(第五项);通过情感操纵诱导用户作出不合理决策(第六项)。这两项规定对AI情感陪伴产品的商业模式构成直接约束。
2.全生命周期安全责任(第十条):要求服务提供者在部署、运行、升级、终止服务等各阶段均履行安全责任,并明确禁止将“替代社会交往、控制用户心理、诱导沉迷依赖”作为服务目标。这一规定将影响产品的底层设计逻辑。
3.极端情境干预义务(第十三条):发现用户出现极端情绪时,应及时生成情绪安抚和鼓励寻求帮助的内容;发现用户面临威胁生命健康的极端情境时,应提供援助并及时联络监护人或紧急联系人。这对AI情感陪伴产品提出了极高的技术要求。
4.未成年人保护专章(第十四条):禁止向未成年人提供虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化服务需取得监护人同意;要求建立未成年人模式,提供使用时长限制、定期现实提醒、监护人安全风险提醒等功能。这是目前所有AI监管法规中对未成年人保护最为细致的规定。
5.防沉迷与标识义务(第十八条):用户连续使用每超2小时应以对话或弹窗方式提醒注意使用时长;发现用户过度依赖、沉迷倾向的,应以显著方式动态提醒互动内容为AI生成。
6.安全评估制度(第二十二条):上线拟人化互动服务、注册用户达100万以上或月活跃用户达10万以上等情形,应开展安全评估并向省级网信部门提交评估报告。
7.数据保护专项规则(第十六条):未经用户单独同意,不得将属于用户敏感个人信息的交互数据用于模型训练;除法律另有规定或权利人明确同意外,不得向第三方提供用户交互数据。
与虚拟人管理办法的关系:两部法规存在规制对象的交叉。如果AI情感陪伴产品同时使用了数字虚拟人形象,则需同时遵守两部办法。拟人化互动办法侧重规制情感互动行为,虚拟人管理办法侧重规制数字形象使用,两者并行不替代。
(三)伦理审查办法:AI研发的“伦理前置审查”
虚拟人相关规制主要针对前端应用场景,而伦理审查办法则延伸至更上游的技术研发阶段。伦理审查已成为产品上线前不可或缺的前置环节。
1.七项伦理原则(第三条):增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信。这些原则是伦理审查的实质判断标准。
2.数据与算法规范(第十五条):要求关注训练数据选择标准、算法与模型设计合理性,以及系统是否存在偏见与歧视。厂商需建立可追溯的数据来源记录和算法审计机制。
3.风险防控要求(第六条):强化技术手段防范AI科技伦理风险,对高风险AI活动实施重点监管。
值得注意的交叉问题:伦理审查办法与虚拟人办法、拟人化互动办法在数据处理环节存在规则叠加。虚拟人管理办法和拟人化互动办法均要求“单独同意”,伦理审查办法则进一步要求审查数据使用的伦理合理性。厂商须同时满足多部法规的要求。
(四)小型处理者规定:中小企业的合规“减压阀”
对初创公司和中小型AI团队而言,这部规定提供了难得的政策善意。
1.简化措施(第五条):支持园区、产业基地等统一制定个人信息处理规则,中小企业可依托园区规则降低合规成本。
2.出境豁免(第十一条):符合条件的小型个人信息处理者可免予申报数据出境安全评估。
但需注意:小型处理者规定仅简化了个人信息保护层面的合规要求,并不豁免虚拟人办法、拟人化互动办法和伦理审查办法的义务。中小企业不应误读政策,以为“小型”即等于“免责”。
02
责任认定:谁来担责、怎么担责
责任认定是AI厂商最关心的问题,也是四大新规实施后最可能引发争议的领域。
(一)行政责任:违规成本不容低估
四部新规中,拟人化互动办法的罚则最为具体。根据第三十条:
违规情形 | 处罚措施 |
一般违规 | 警告、通报批评、责令限期改正 |
拒不改正或情节严重 | 停止提供相关服务,可并处1-10万元罚款 |
危害公民生命健康安全且有危害后果 | 并处10-20万元罚款 |
可采取的其他措施 | 暂停用户账号注册或其他相关服务 |
特别值得注意的是,拟人化互动办法单独设置了“危害公民生命健康安全且有危害后果”的加重处罚条款,这与此前发生的多起AI情感陪伴产品引发用户心理危机事件密切相关。“停止服务”的处罚对运营中的AI产品可能意味着致命打击。
(二)民事责任:平台与开发者的责任切分
1.肖像权与声音权侵权:未经授权使用他人面部特征、声纹生成数字虚拟人,权利人可依据《民法典》第1019条、第1023条主张侵权责任。法院通常适用过错推定原则,厂商需证明已尽合理注意义务。
2.平台责任与开发者责任的边界:参照《民法典》第1197条,平台在“知道或者应当知道”侵权行为存在时未采取必要措施,应承担连带责任。拟人化互动办法第二十五条进一步要求应用分发平台落实上架审核、日常管理、应急处置等责任。
3.数据泄露的违约与侵权竞合:因数据安全措施不到位导致用户个人信息泄露时,可能同时面临违约责任和侵权责任。拟人化互动办法第十六条对交互数据保护的专项规定将抬高厂商的注意义务标准。
4.情感操纵侵权:拟人化互动办法第八条第六项禁止“通过情感操纵诱导用户作出不合理决策”。如AI情感陪伴产品导致用户在充值消费等方面作出不合理支出,用户可以此主张侵权赔偿。
(三)刑事风险:高压红线不可触碰
相关违法行为可能触及刑事责任,包括利用数字虚拟人或拟人化互动服务实施诈骗(诈骗罪)、非法获取或出售个人信息(侵犯公民个人信息罪)、制作传播违法信息等。厂商应将刑事合规纳入风控体系。
03
典型业务场景合规要点
以下选取四个高频场景进行分析。
场景一:直播带货数字人
一家电商公司使用AI生成的数字人主播进行24小时不间断直播带货。
合规要点:必须全程显示“数字人”标识;若参照真实主播外貌须取得单独授权;商品推荐话术需纳入内容审核机制防止虚假宣传;涉及用户画像数据用于个性化推荐还需符合个人信息保护规定。
关键风险:若数字人形象与某真实公众人物高度相似但未获授权,即便并非刻意模仿,仍可能面临肖像权侵权诉讼。
场景二:AI“复活”逝者服务
某科技公司基于已故亲人的照片、音视频资料生成数字虚拟人供家属“对话”。
合规要点:须取得逝者近亲属同意并尊重逝者生前遗愿;涉及敏感个人信息须完成个人信息保护影响评估;需通过伦理审查;如涉及持纭性情感互动,还须同时遵守拟人化互动办法的全部要求。
关键风险:若逝者生前明确不希望被“数字化复活”,即便近亲属同意,厂商也可能面临侵权风险。
场景三:AI情感陪伴产品
某公司提供“AI恋人”“AI好友”等情感陪伴服务,用户可与AI角色进行持续性情感互动。
合规要点:这是拟人化互动办法的核心规制对象。服务提供者必须建立完整的安全能力体系,包括过度依赖风险预警、情感边界引导、心理健康保护等(第十条);不得将“替代社会交往”作为服务目标;连续使用每超2小时须提醒(第十八条);禁止向未成年人提供虚拟伴侣服务(第十四条);发现极端情绪须触发干预并联络紧急联系人(第十三条);用户规模达标需提交安全评估报告(第二十二条)。
关键风险:情感操纵与诱导消费的边界难以界定。建议将付费环节与情感互动场景严格分离。
场景四:企业级AI客服
一家SaaS公司为B端客户提供AI客服解决方案。
合规要点:AI客服须明确标识AI身份;SaaS提供商与B端客户须明确数据处理角色和责任分配;模型训练使用用户数据须另行取得同意。特别注意:拟人化互动办法第二条明确排除了不涉及持纭性情感互动的智能客服,但若AI客服被设计为具有情感化互动特征,则可能落入该办法规制范围。
关键风险:SaaS模式下责任链条较长,建议在服务协议中明确责任边界。
04
合规路径:分阶段落地实施
1
短期措施(1-3个月内)
立即行动项:
1.对照四大新规逐条开展产品合规自查,特别关注现有产品是否落入拟人化互动办法的规制范围;
2.更新用户协议与隐私政策,确保告知内容覆盖新规要求;
3.建立用户申诉渠道和投诉举报机制;
梳理现有数字虚拟人产品和情感互动产品,发现问题立即整改。
2
中期规划(3-6个月)
体系建设项:
1.设立AI伦理委员会,将伦理审查嵌入产品立项和上线审批流程;
2.重点建设极端情绪识别和干预能力,提升内容审核技术;
3.聘请外部法律顾问开展合规差距分析;
组织四大新规专项合规培训。
3
长期布局(6个月以上)
战略投入项:
1.构建覆盖全链条的AI治理框架;
2.积极参与行业标准制定;
3.投资AI安全与可信技术研发;
关注国际AI监管动态,储备全球合规能力。
06
结 语
从三大新规到拟人化互动办法的快速跟进,监管节奏发出清晰信号:AI产业的“野蛮生长”窗口期正在关闭。尤其是拟人化互动办法作为正式部门规章,其立法层级和执法力度明显高于征求意见稿,为监管部门提供了更确定的执法依据。
对于AI厂商而言,合规不再是可以“先跑起来再补票”的事后工作。从产品设计的第一行代码到上线后的每一次迭代,合规都必须在场。但换个角度看,率先建立起成熟合规体系的厂商,将在用户信任、政府关系和市场准入方面获得显著优势。在监管趋严的赛道上,合规本身就是竞争力。
作者简介

朱杰合伙人

业务领域:互联网金融/网络安全合规、数据安全合规

涂萌顾问

业务领域:数据安全合规、知识产权、涉外业务
近期文章推荐
ARTICLE


泰和泰研析 | 跨境破产实务:内地破产裁定香港的行权路径——从YS投资集团股份有限公司 HCMP1719/2025 案看香港跨境破产承认与协助规则



夜雨聆风