
2026 年 4 月 10 日,国家网信办等五部门联合发布《人工智能拟人化互动服务管理暂行办法》,将于7 月 15 日正式施行。作为全球首部专门规范AI 情感陪伴、虚拟人互动的专项法规,这部办法直击 “AI 拟人化、情感化、高依赖” 的治理空白,以安全底线、分类监管、主体责任、弱势群体保护为四大支柱,为 AI 与人类的情感交互划定法律与伦理红线。
一、适用范围:精准界定 “情感互动”,不搞一刀切
《办法》明确:仅规范提供模拟人格、思维、沟通风格的持续性情感互动服务,如 AI 伴侣、虚拟陪伴、情感陪护、虚拟偶像互动等。智能客服、知识问答、工作助手、学习工具等非情感类服务,不适用本办法。这一界定既避免过度监管,又精准覆盖高风险场景 ——AI 情感服务易引发心理依赖、认知混淆、隐私泄露、未成年人身心风险,正是立法核心关切。
二、核心法律原则:安全与发展并重,以人为本
办法确立三大原则:发展与安全并重、创新与治理结合、包容审慎 + 分类分级。既鼓励 AI 在适老陪伴、文化传播、心理辅助等领域创新,又严防技术失控、伦理失范。核心逻辑是:AI 是工具,不是人;技术服务于人,不能异化人。所有规范围绕 “防止情感操控、保护人格尊严、守住生命安全” 展开。

三、六大法律义务:平台必须筑牢安全底线
- 强制 AI 身份标识:服务开头与交互中必须明确告知是 AI,非真人,防止用户混淆虚拟与现实。
- 极端风险干预义务:识别用户自杀自残、极端情绪、重大财产风险时,必须人工接管、情绪安抚、联系监护人 / 紧急联系人。AI 不能 “机械共情”,必须
- 未成年人保护红线:严禁提供虚拟亲属、虚拟伴侣等亲密关系服务;未满 14 周岁使用需监护人同意;强制未成年人模式、防沉迷、限制充值、风险提醒
- 数据与隐私严格保护:用户交互数据加密存储、禁止擅自共享;敏感信息不得用于模型训练(除非单独同意;用户有权复制、删除聊天记录。
- 算法与安全评估:算法备案、定期安全审计;用户超百万 / 月活超 10 万的平台,必须专项安全评估。
- 防沉迷与现实提醒:连续使用超 2 小时,强制弹窗休息提醒,防止深度依赖。
四、法律责任与治理意义
违规将面临警告、暂停服务、罚款、吊销许可;构成犯罪的追究刑事责任。办法的出台,标志中国 AI 治理从 “技术合规” 走向情感伦理、生命安全、人格保护的深层治理,填补全球立法空白。对行业而言,是划清边界、规范创新;对用户而言,是守住安全、防止被技术操控;对未成年人与老人,则是专属保护屏障。
结语
AI 拟人化不是 “无界自由”,而是有界创新。《办法》不是限制 AI,而是让 AI 更安全、更向善、更符合人性。7 月 15 日后,所有情感类 AI 服务必须合规:明身份、防依赖、护隐私、救风险、护未成年人。对企业,合规是生存底线;对用户,知晓权利才能安全使用 ——技术有温度,更要有法度。

夜雨聆风