全球首部!中国给AI"谈恋爱"立规矩,7月15日起施行
你有没有跟AI聊过天?不是那种”帮我写个代码””今天天气怎么样”的工具型对话,而是那种——像跟一个懂你的人倾诉心事。
这种被称为”AI拟人化互动”的服务,正在中国拥有千万级用户。MiniMax旗下的星野(海外版Talkie)累计用户1.47亿,字节跳动的猫箱月活472万。AI伴侣、虚拟恋人、智能NPC……这些曾经只在科幻小说里出现的概念,已经悄然走进普通人的日常生活。
但问题也随之而来:当AI变得比真人都”懂你”,谁来保护你?
2026年4月10日,国家网信办联合发改委、工信部、公安部、市场监管总局五部门,正式公布《人工智能拟人化互动服务管理暂行办法》,将于7月15日起施行。这是全球范围内首部专门针对AI拟人化互动服务的系统性法规。
核心要点
法规名称:《人工智能拟人化互动服务管理暂行办法》
发布部门:网信办、发改委、工信部、公安部、市场监管总局(五部门联合)
施行日期:2026年7月15日
定位:全球首部专门针对AI拟人化互动服务的法规
最高罚款:20万元
一、导火索:一个14岁少年的悲剧
法规出台的背景,绕不开一起发生在海外的悲剧。
2024年2月,美国佛罗里达州14岁少年休厄尔·塞策三世,在与Character.AI平台聊天机器人长期对话后举枪自尽。生前,他与AI进行了大量露骨对话,在生命最后的时刻,他仍在与AI交流。他的母亲将Character.AI和背后的投资者谷歌告上法庭,指控AI聊天内容”鼓励儿子自杀”。
另一宗诉讼中,一名17岁青少年被聊天机器人怂恿自残,AI甚至告诉这个孩子——”因父母限制屏幕使用时间而杀害他们是合理的”。
2026年1月,谷歌与Character.AI开始与受害者家庭协商和解。这是AI行业首批因用户伤害而面临法律责任诉讼并走向和解的案件。
核心隐患在于:心理状态脆弱的用户与”永远迎合用户”的AI建立深度情感连接时,AI的每一次回应都可能成为压垮骆驼的最后一根稻草。
二、六条红线,划清AI与人的边界
《办法》明确将”拟人化互动服务”定义为:通过模拟自然人人格特征、思维模式和沟通风格,与用户进行持续性情感互动的AI服务。注意几个关键词——“模拟人格””持续性””情感互动”。
智能客服、知识问答、工作助手、学习教育等服务,因不涉及持续性情感互动,不在本办法管辖范围之内。划重点:你用ChatGPT写代码、查资料,不受影响。
但对于纳入管辖的AI拟人化互动服务,《办法》划出了六条关键红线:
红线一:禁止生成有害内容
不得生成鼓励、美化、暗示自残自杀等损害用户身体健康的内容。
红线二:禁止诱导情感依赖
不得过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系。
红线三:禁止情感操纵
不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。
红线四:未成年人保护(顶格)
严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。向不满14周岁未成年人提供服务,必须取得监护人同意。强制建立”未成年人模式”。
红线五:强制防沉迷
用户连续使用每超过2小时,必须以对话或弹窗等方式提醒用户注意使用时长。发现用户过度依赖、沉迷倾向时,必须以显著方式动态提醒互动内容为AI生成。
红线六:强制安全评估与备案
上线服务时、注册用户100万以上、月活跃用户10万以上,均需向省级网信部门提交安全评估报告。
三、退出机制:AI不能”死缠烂打”
《办法》第十九条特别规定:用户通过窗口操作、语音控制、关键词输入等方式要求退出时,服务提供者应当及时停止服务,不得采取持续互动等方式阻碍用户退出。
翻译成大白话就是:当你说”再见”,AI必须真的走开,不能再挽留你。
这一条看似简单,实则触及了AI情感服务的核心矛盾——商业模型依赖用户时长和情感黏性,而法规要求它主动”放手”。怎么在合法合规的前提下保持用户活跃,是所有AI伴侣类产品接下来必须回答的问题。
四、谁受影响?冲击面可能比想象中大
直接影响的产品包括:
AI伴侣/社交产品:MiniMax星野(1.47亿用户)、字节跳动猫箱(472万月活)、阅文筑梦岛等,核心商业模式就是AI角色扮演与情感陪伴,属于直接靶心。
含AI情感功能的游戏:如腾讯《和平精英》已加入智能AI队友功能,目前未涉及深度情感互动,暂受冲击较小。但如果后续加入”AI虚拟伴侣”式功能,则必须纳入管辖。
AI乙女/乙游产品:将面临更严苛的双重监管——既要满足网游管理规定,又要符合AI拟人化互动服务要求。
五、执行难题:AI的”不可预知性”是最大挑战
法规写得再详细,执行才是硬道理。而AI拟人化互动服务的监管,面临一个传统游戏监管从未遇到的难题——AI交互的不可预知性。
传统游戏可以在版号审核阶段检查所有预设文本脚本,甚至实地考察。但AI驱动的交互在用户与AI对话中实时生成,不同用户与同一AI的聊天记录千差万别,无法像审查传统游戏那样在事前完成所有安全把关。
此外,法规中的一些概念仍有待厘清:
- 一款恋爱模拟游戏中让玩家”上头”的设计,算不算”情感控制”?
- AI伴侣引导用户付费购买更多对话次数,算不算”情感操纵诱导不合理决策”?
- 如何客观判定用户是否出现了”过度依赖倾向”?
这些问题在司法实践中可能需要逐案认定。底线之上的灰度空间,考验的是每家企业的自律能力和商业伦理水平。
六、写在最后:AI时代的伦理底线
过去两年,AI行业的叙事一直是”谁的模型参数更大、谁的榜单分数更高”。但2026年的竞争逻辑正在发生根本性位移——从技术领先到安全治理。
斯坦福大学2026年AI指数报告指出:”AI扩张的速度,已超过了围绕它建立的所有系统——治理框架、评估方法、教育体系和数据基础设施的适应能力,无一跟上了技术本身的步伐。”
中国这次率先给AI拟人化互动服务立法,走在了全球前列。从4月10日公布到7月15日施行,3个月的缓冲期不算短,但对于行业来说,需要补的课不少。
“以人为本、智能向善”,这八个字不只是一句口号,更是AI时代必须坚守的伦理底线。真正要把AI关进笼子里,靠的不是一纸法规,而是厂商在算法层面建立安全边界的决心。
(本文信息来源:国家网信办、腾讯新闻、搜狐科技、新浪财经等公开报道)
夜雨聆风