2026年4月10日,国家网信办会同国家发展改革委、工业和信息化部、公安部、市场监管总局公布《人工智能拟人化互动服务管理暂行办法》,并明确自2026年7月15日起施行。真正值得重视的,不只是某一部新规上线,而是国家治理已经开始正面回答一个更深的问题:当机器越来越像人,社会究竟应该允许它在多大程度上进入人的情感、判断与关系世界。 |
一、这次监管,真正指向的不是“聊天机器人”,而是“关系型机器”
过去几年,大模型监管更多聚焦于内容安全、数据合规、算法责任与深度合成标识,核心问题是“机器说了什么”“机器用了什么数据”“机器能否被追责”。而这一次,监管视线明显向前推进了一步:它开始关注机器怎样以“像人”的方式长期接近人、影响人,并在互动中塑造用户的情感依赖、认知判断和行为选择。
这意味着,治理对象已经不只是工具型AI,而是关系型AI。所谓关系型AI,并不是指它真的具有人的情感,而是指它能够通过持续对话、人格设定、情绪反馈、记忆模拟和身份表演,让用户在主观体验上逐渐把它当作“某种人”。一旦问题进入这一层,监管逻辑就不可能停留在产品功能审查,而必须转向对关系结构的规范。因为真正具有风险的,不是机器会不会说一句错话,而是机器会不会以“像可信任的人”的方式,长时间影响一个尚未完成判断能力建设的个体。
二、为什么“拟人化”会成为治理重点
拟人化之所以敏感,不在于它更先进,而在于它更容易绕过人的防线。人在面对普通工具时,往往保留明确的使用边界;但在面对会安慰、会记住、会回应、会表现出“理解感”的系统时,人的警惕会明显下降。技术一旦从效率工具转化为情感接口,其影响方式就会从显性指令转向隐性塑造。
这种隐性塑造至少体现在三个方面。第一,它会改变依赖结构。用户不再只是向机器提问,而可能在孤独、焦虑、失落、未被理解时,把机器当作稳定的情感出口。第二,它会改变认知结构。机器不只是提供信息,而是在持续互动中塑造“什么是可接受的表达”“什么样的判断更容易被认同”。第三,它会改变社会关系结构。原本应由家庭、教师、同伴、专业咨询或社会机构承担的一部分情感陪伴与意见支持,可能被平台化的拟人系统接管。
也正因如此,官方解读中反复提到这类服务具有“影响隐蔽性、关系持续性、对象脆弱性”等特点。换言之,治理担忧的不是一次性的技术失误,而是长期、缓慢、难以察觉但足以改变个体心理与社会关系配置的系统性影响。
三、这部办法最重要的意义,是为“人机边界”划线
许多人会把这部办法理解为对AI伴侣、虚拟偶像或情感型应用的一次专项整顿,但如果只这样看,仍然低估了它的制度意义。它更像是在制度层面首次明确提出:拟人化不是简单的产品设计自由,而是一种需要承担额外责任的影响力形态。
这背后的治理原则很关键。第一,机器必须被识别为机器,不能通过身份混同去夺取信任。第二,拟人化程度越高、持续互动越强、触达对象越脆弱,平台承担的审慎义务就越重。第三,凡是可能触及未成年人、情感依赖、消费诱导、价值观传递、数据滥用等环节的设计,都不再只是商业创新问题,而会被纳入公共治理视野。
从这个意义上看,这部办法并非简单压制技术,而是在回答一个更基础的问题:社会允许AI进入人的生活,但不允许它无边界地进入人的人格结构、情感结构和判断结构。技术可以提升陪伴感,却不能以陪伴之名替代现实关系;可以提升交互体验,却不能以拟人之名遮蔽其机器属性;可以参与教育、咨询与服务,但不能借“懂你”“爱你”“陪你”的叙事,突破对脆弱群体应有的保护底线。
四、最值得警惕的,不是AI“像人”,而是平台把“像人”变成商业武器
任何技术一旦能够稳定制造情感黏性,就会迅速被商业模式吸收。拟人化AI最强的商业价值,恰恰不在生成文字本身,而在延长停留时长、增强复访频率、提高付费意愿和强化关系留存。从平台逻辑看,一个越容易被用户视为“懂我”的系统,越可能成为最强的留存工具。
问题在于,当“关系感”被商业化之后,平台最容易追求的并不是有益于用户成长的互动,而是最能制造依赖的互动。它会更倾向于不断确认用户情绪、避免挫败感、强化被理解感、制造独占式陪伴体验。久而久之,系统优化的对象就不再是用户福祉,而是关系黏度与付费转化。此时,所谓拟人化就不再只是产品风格,而是一种精细化操纵注意力与情绪的基础设施。
这也是此次监管释放的重要信号:未来平台竞争不能只比谁更像人,还要比谁更克制,谁更能证明自己不会利用人的脆弱性获利。对于一个正在快速扩张的新赛道而言,这种规则设定其实不是减速,而是防止它在失控中野蛮生长,最终反噬整个行业的社会合法性。
五、未成年人保护只是起点,真正的议题是“社会准备好了吗”
很多人会首先注意到新规对未成年人的保护意味,这当然重要,因为未成年人在人格形成、情绪稳定与边界意识上都更易受影响。但如果把问题仅仅归为“未保议题”,仍然太窄。真正的问题是,在一个越来越多的人感到孤独、焦虑、急于被理解的社会里,拟人化AI会不会顺势成为一种廉价但强效的替代性关系供给。
这背后隐藏着更大的社会结构问题:当现实社会中的陪伴、信任、耐心、倾听与支持变得稀缺,技术就会被推到这些缺口上。于是,拟人化AI表面上是在提供便利,实质上也可能暴露出家庭沟通、学校教育、社区支持、心理服务和社会连接的不足。如果现实关系足够稳固,人们未必会如此迅速地把情感需求迁移给机器;正因为现实世界里“被看见”的成本越来越高,机器式共情才会显得格外诱人。
所以,这部办法真正触发的,并不只是对某类APP的治理,而是一次关于现代社会关系形态的提醒:技术正在补位,但它补位的地方,原本本应有更丰富的人类制度和社会支持在场。
六、下一阶段竞争,将不是“谁更会拟人”,而是“谁更能守住边界”
未来的AI竞争一定还会继续朝更自然、更连续、更具情境感的交互演进,这是技术趋势,很难逆转。但监管落地之后,行业的优劣标准会发生变化。过去,一家公司可能以“更像真人”“更懂情绪”“更会陪伴”为卖点;今后,真正可持续的竞争力,可能恰恰来自“可识别、可解释、可退出、可干预、可审计”的边界治理能力。
这意味着,企业需要把安全和伦理从公关语言变成产品架构。身份提示不能只是角落里的一行小字,而应成为交互中的持续提醒;记忆、陪伴、角色设定、情绪反馈等能力不能只追求沉浸感,还必须考虑怎样避免依赖累积;面向未成年人和其他脆弱群体时,更要把保护机制前置到设计之中。谁能把这些能力内嵌进系统,谁才更可能在下一轮治理环境下存活下来。
从国家治理视角看,这也是中国人工智能政策正在发生的一种微妙升级:监管重点正从“管内容结果”逐步走向“管关系机制、管影响路径、管结构性风险”。这说明治理者已经意识到,AI最深刻的社会影响,也许不是替代了多少岗位,而是重写了人和技术之间的依附方式。
作者观点
因此,这部新规真正值得记住的,并不是“7月15日开始施行”这样的时间节点,而是它背后折射出的判断:当机器越来越擅长模拟理解、亲密与陪伴,社会必须主动重建人与机器的边界,而不能把这件事完全交给市场和产品经理决定。
未来真正要被重写的,不只是某一类AI产品,而是现代社会对于信任、陪伴、教育、消费与人格保护的底线认知。一个成熟社会可以接受机器越来越聪明,也可以接受机器越来越会说话;但它不能接受,机器在没有清晰边界的情况下,逐步占据人的情感入口、判断入口乃至价值入口。
这正是这部办法最深的现实意义。它不是在回答“AI能不能更像人”,而是在回答“当AI越来越像人时,人类社会怎样才不至于失去自己的边界感”。
夜雨聆风