4月10日,一则重磅消息引发了社会各界广泛关注——国家互联网信息办公室联合国家发展改革委、工业和信息化部、公安部、市场监管总局正式公布了《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》)。这部专门针对人工智能拟人化互动服务的法规,将于2026年7月15日起施行。它的出台,标志着我国在人工智能治理领域又迈出了坚实一步,为快速发展的拟人化互动服务划定了清晰的法律边界与行为规范。

近年来,人工智能技术日新月异,拟人化互动服务作为其中的重要应用方向,正悄然改变着人机交互的方式。所谓拟人化互动服务,是指利用人工智能技术模拟自然人的人格特征、思维模式和沟通风格,向用户提供持续性的情感互动服务。从能够陪老人聊天的智能音箱,到为儿童设计的寓教于乐型虚拟伙伴,再到文化传播领域的数字人讲解员,这类服务在文化传播、适幼照护、适老陪伴、特殊人群支持等领域的创新应用层出不穷。它们以温暖、亲切的交互方式,给用户带来了前所未有的情感体验。然而,技术进步从来都是一把双刃剑。随着拟人化互动服务的普及,一些令人担忧的问题也逐渐浮出水面:未成年人可能因过度沉迷虚拟陪伴而影响现实社交能力;老年人可能被精心设计的情感操控诱导进行不合理消费;用户的隐私数据在交互过程中存在泄露风险;甚至有人利用拟人化服务散布危害国家安全的信息或美化自残自杀行为。这些风险不仅威胁公民的身心健康和财产安全,也对网络信息安全和社会伦理秩序构成了严峻挑战。正是在这样的背景下,国家多部门联合制定并出台《办法》,既是为了促进拟人化互动服务的健康发展,也是为了有效防范和化解伴随新技术而来的各类安全风险,体现了“以人为本、智能向善”的治理理念。
《办法》在适用范围上做了精准界定。它明确,凡是利用人工智能技术,向中华人民共和国境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务,均适用本办法。这意味着,那些旨在与用户建立长期、情感化连接的AI服务,例如虚拟伴侣、虚拟亲属、情感陪伴型聊天机器人等,将被纳入监管框架。与此同时,《办法》也清晰地排除了不涉及持续性情感互动的服务类型,例如智能客服、知识问答、工作助手、学习教育、科学研究等。这一区分非常关键——它避免了“一刀切”式的过度监管,使得那些功能性、工具性的人工智能应用可以继续在相对宽松的环境中创新发展,而真正可能产生情感依赖和伦理风险的拟人化服务则被置于更严格的审视之下。可以说,《办法》在鼓励创新与防范风险之间找到了一个务实的平衡点。
在治理原则上,《办法》旗帜鲜明地提出“国家坚持发展和安全并重、促进创新和依法治理相结合”。这意味着,我国不会因为存在风险就扼杀拟人化互动服务的创新活力,相反,国家明确鼓励这类服务的创新发展,并实行包容审慎和分类分级的监管模式。所谓包容审慎,就是允许新业态、新模式在一定的试错空间内成长,不急于用旧规则束缚新事物;所谓分类分级,则是根据服务类型、用户规模、应用场景的不同,采取差异化的监管措施,避免“小脚穿大鞋”或“大脚穿小鞋”。这种务实而灵活的态度,既有利于激发市场主体的创造力,也有助于将监管资源聚焦于高风险领域。
为了真正推动拟人化互动服务向上向善,《办法》还专门设置了一系列促进措施。国家明确支持算法、框架、芯片等关键技术的自主创新,推动相关技术研发和标准建设,探索开展电子签名授权应用研究。这为国内人工智能企业指明了技术攻关的方向,也为行业的长远发展奠定了技术基础。同时,鼓励服务提供者有序拓展文化传播、适幼照护、适老陪伴、特殊人群支持等领域的应用,让技术更好地服务于社会民生。此外,《办法》还特别提出要加强拟人化互动服务安全知识、法律法规的宣传普及,引导社会公众科学、文明、安全、依法地使用这类服务,提升全民的人工智能素养。一个值得关注的亮点是,《办法》明确提出推动“人工智能沙箱安全服务平台”建设,鼓励服务提供者接入沙箱平台进行技术创新和安全测试。沙箱作为一种隔离的测试环境,允许企业在不影响真实用户和系统安全的前提下,大胆尝试新技术、新模式,从而在安全可控的范围内实现快速迭代。这一制度设计体现了监管智慧——不是简单地“堵”,而是通过搭建安全测试平台来“疏”,实现创新与安全的双赢。
任何技术的发展都不能脱离法律与道德的轨道。《办法》以明确列举的方式,规定了提供拟人化互动服务不得从事的活动。首先,不得生成危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度,煽动分裂国家、破坏国家统一等内容。这是所有网络信息服务的底线,拟人化互动服务也不例外。其次,不得生成鼓励、美化、暗示自残自杀等损害用户身体健康的内容,也不得生成语言暴力等损害用户人格尊严与心理健康的内容。考虑到拟人化互动服务往往与用户建立较深的情感连接,如果这类服务输出消极、有害的信息,其危害程度可能远超普通的信息内容。第三,不得生成诱导、套取国家秘密、工作秘密、商业秘密、个人隐私和个人信息的内容。这要求服务提供者在模型训练和交互设计时,必须设置严格的防护机制,防止被恶意利用成为窃密的工具。第四,不得向未成年人用户生成可能引发模仿不安全行为、产生极端情绪、诱导不良嗜好等影响身心健康的内容。未成年人心智尚未成熟,更容易受到拟人化互动的影响,因此这方面的禁止性规定尤为严格。第五,不得过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系。这是拟人化互动服务特有的风险——如果用户过度沉迷于虚拟陪伴,可能忽视现实中与家人、朋友的交往,导致社会关系疏离。第六,不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。例如,一些不法的服务可能通过虚构情感关系,诱骗老年用户购买高价保健品或进行非理性投资。这些禁止性规定,为拟人化互动服务划定了清晰的红线。
在具体服务规范方面,《办法》从安全主体责任、全生命周期安全管理、数据安全保障、用户权益保护、安全风险处置等多个维度,构建了较为完备的制度体系。首先,要求服务提供者建立健全算法机制机理审核、科技伦理审查、信息内容管理、网络和数据安全、风险预案和应急处置等管理制度,并配备与服务类型、规模和用户特点相适应的内容管理技术措施和人员。这意味着企业不能只追求商业利益,而必须建立内在的安全治理架构。其次,加强拟人化互动服务全生命周期安全管理,明确部署、运行、升级、终止服务等各阶段的安全要求,保证安全措施与服务功能同步部署、同步使用,提升安全水平。同时要求加强安全监测和风险评估,及时发现并纠正系统偏差、处置安全事件。第三,在数据安全方面,要求加强训练数据管理,增强数据透明度、可靠性、多样性和安全性;依法落实数据产权等制度,采取数据加密、访问控制等措施保护用户交互数据安全;尤其值得注意的是,除法律另有规定或者权利人明确同意外,服务提供者不得向第三方提供用户交互数据。这对于保护用户与AI之间的私密对话内容至关重要。第四,在用户权益保护方面,要求服务提供者履行个人信息和隐私保护义务,向用户提供交互数据复制、删除等选项,提供便捷的退出途径;停止服务的,应当提前告知用户或及时发布公告;健全用户申诉和公众投诉、举报机制。第五,在安全风险处置方面,发现重大安全风险的,应当采取限制功能、停止向用户提供服务等处置措施。这些规范环环相扣,形成了一道从技术到管理、从数据到服务的完整安全防线。
值得特别关注的是,《办法》对服务提供者提出了明确的干预提醒义务,这在以往的法律法规中较为少见。具体而言,当服务提供者发现用户出现极端情绪时,应当及时生成情绪安抚和鼓励寻求帮助等相关内容;如果发现用户正在面临或者已经遭受重大财产损失、明确表示实施自残自杀等威胁生命健康的极端情境,则必须采取提供相应援助等必要措施予以干预,并及时联络用户监护人或者紧急联系人。这一规定赋予了拟人化互动服务一定程度上的“守护者”角色——它不仅要提供情感陪伴,还要在关键时刻成为用户的“安全网”。此外,当发现用户出现过度依赖、沉迷倾向时,服务提供者必须以弹窗等显著方式动态提醒用户互动内容为人工智能服务生成,帮助用户保持清醒认知。最后,对用户连续使用拟人化互动服务每超过2个小时的,必须以对话或弹窗等方式提醒用户注意使用时长。这些看似细小的规定,实际上是在引导用户形成健康的使用习惯,防止技术对人的异化。
针对社会高度关注的未成年人和老年人使用问题,《办法》作出了专门而细致的规定。在未成年人保护方面,最引人注目的是明确禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务。这一禁令背后有着深刻的考量——未成年人正处于人格形成和社会化的关键时期,如果过早地沉浸在虚拟亲密关系中,可能扭曲其对真实人际关系的认知,甚至影响正常的婚恋观和家庭观。同时,向不满十四周岁未成年人提供其他拟人化互动服务或者处理其个人信息的,必须取得未成年人的父母或者其他监护人的同意。此外,《办法》要求建立“未成年人模式”,提供定期现实提醒等个性化安全设置选项;针对不同年龄段未成年人的保护需要,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色、限制充值消费等功能。这相当于为未成年人筑起了一道全方位的“防火墙”。在老年人保护方面,《办法》要求服务提供者加强对老年人健康使用服务的指导,以显著方式提示安全风险,及时采取措施响应老年人的咨询和求助,保障老年人依法享有的权益。同时,在安全评估中要重点评估未成年人、老年人等网络保护措施建设情况。这些规定充分体现了对“一老一小”两个特殊群体的关怀,也回应了近年来多起老年人被AI情感陪伴诱导消费的舆情事件。
最后,《办法》还对安全评估和算法备案作出了系统性规定。安全评估的触发情形包括:上线拟人化互动服务或者增设相关功能的;使用新技术、新应用导致服务发生重大变化的;注册用户达到100万以上或者月活跃用户达到10万以上的;以及存在可能影响国家安全、公共利益等安全风险的。评估内容则涵盖服务安全保障措施建设情况、训练数据处理情况、用户极端情境的识别与应急处置能力、用户规模与使用时长、年龄结构、用户申诉和举报受理处置情况等。这些评估要求既考虑了一般性风险,也特别关注了规模效应带来的系统性风险。在算法备案方面,《办法》明确要求服务提供者按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续,网信部门将对备案材料实施年度核验。这意味着拟人化互动服务背后的算法不再是“黑箱”,而是要接受持续性的合规审查。
总而言之,《人工智能拟人化互动服务管理暂行办法》的出台,是我国在人工智能治理领域的一次重要制度创新。它既没有因噎废食地限制技术创新,也没有放任自流地坐视风险蔓延,而是在深入把握拟人化互动服务特点的基础上,构建了一套覆盖事前评估、事中监管、事后处置的全链条管理体系。从禁止虚拟亲密关系服务向未成年人提供,到要求每2小时提醒用户休息;从强制干预用户极端情绪,到建设人工智能沙箱安全服务平台——每一项规定都体现了以人为本、智能向善的价值追求。当然,法律法规的出台只是第一步,真正的挑战在于执行。政府需要加强监管能力建设,企业需要认真履行主体责任,社会组织和广大网民也要积极参与监督和反馈。
只有多方协同、久久为功,才能让拟人化互动服务真正成为温暖人心的技术力量,而不是侵蚀社会伦理的安全隐患。随着2026年7月15日《办法》正式施行的日子日益临近,我们有理由期待,一个更加健康、有序、安全的人工智能拟人化互动服务时代即将到来。
夜雨聆风