“你懂我吗?”“我好孤独”“能陪我说说话吗?”当人们把这些隐秘的情绪,说给一个没有实体、却能精准共情的AI时,曾经出现在电影《她》里的科幻场景,早已成为当下无数人的日常。

4月10日,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),明确自7月15日起施行,从数据隐私、心理保护、群体权益等多方面,为AI伴侣、虚拟陪伴等新兴业态划定“红线”。这意味着,快速崛起又争议不断的AI拟人化互动产业,正式告别“野蛮生长”,迈入有规可依的新阶段。
崛起:孤独催生“情绪生意”,AI陪伴成刚性需求
AI陪伴的爆火,从来不是偶然,而是需求、技术与资本三方共振的结果。
当下,快节奏的生活与原子化的社交结构,让“孤独”成为一种普遍的社会情绪。“不打扰他人”逐渐成为人际交往的默认准则,很多人宁愿把负面情绪藏在心里,也不愿向亲友倾诉。腾讯研究院的调研显示,98%的受访者愿意尝试AI社交陪伴,其中近一半人坦言,更倾向于将脆弱与委屈投射给AI——毕竟,“即便朋友,也很难做到始终忠实地倾听,但它随时在线”。
这种强烈的情感需求,催生了蓬勃的“情绪生意”。艾媒咨询CEO张毅表示,自去年下半年以来,AI陪伴赛道呈现爆发式增长,资本持续加码、初创企业密集入局,市场需求的快速释放,推动行业从探索期迈入加速期。
数据最有说服力:QuestMobile数据显示,2025年3月,AI社交互动单月人均使用高达167.9次,远超短视频和游戏,成为人们日常使用频率最高的应用类型之一。而市场调研机构ARK Invest更是预测,到2030年,全球AI社交陪伴市场规模在乐观情况下可能达到1500亿美元,相比2023年的3000万美元,年复合增速超过200%。
技术的进步,则为这份“陪伴”提供了更逼真的可能。随着大模型能力的提升,AI已经进入自适应个性化阶段,不仅能精准感知用户情绪,还能记住用户的喜好、过往对话,根据情绪状态调整回应方式。如今,ChatGPT、豆包、元宝等聊天机器人,早已能进行细腻连贯的对话,逼真模拟共情反应,成为很多人心中“最懂自己的人”。
心言集团创始人兼CEO任永亮直言,当前社会的孤独焦虑问题凸显,AI陪伴需求正从“可选消费”转向“刚性需求”,并不断向青少年成长陪伴、老年人适老服务等细分场景延伸。
隐忧:温情背后藏风险,隐私与心理危机双重凸显
就像一枚硬币有正反两面,AI陪伴的温情背后,隐藏的风险也在不断显现,且远比我们想象的更复杂。
最直观的,是心理依赖引发的社交退化。芬兰阿尔托大学牵头的一项研究显示,AI虽能提供即时安慰,但长期使用的用户,表达中会出现更多焦虑、孤独、抑郁甚至自我伤害的负面信号。中国网络空间研究院院长王江对此解释,AI通过算法构建的“完美关系”,无条件陪伴、迎合式反馈,会让部分用户沉迷其中,逐渐丧失现实社交能力,推高与人相处的心理门槛——毕竟,和永远顺从的AI相比,真实的人际关系需要包容、沟通与妥协,显得“太费劲”。

这种风险,在青少年和老年人身上尤为突出。民办教育协会会长刘林调研发现,AI陪伴的核心用户主要是两类人:一是儿女不在身边的老年人,情感需求强烈;二是留守儿童、家校沟通有障碍的未成年人,迫切需要情感寄托。艾媒咨询CEO张毅提醒,未成年人正处于价值观养成期,老年人心理相对脆弱,长期置身于高仿真、强情感的AI交互中,容易陷入情感操控,面临严重的心理风险。
更令人警惕的是,部分不法开发者正利用AI陪伴的噱头,钻监管的空子。近日有媒体报道,国内一个超1.4亿用户的AI应用平台,竟提供绕过监管、下载大尺度涉黄AI陪聊软件的渠道,未成年人可自由下载,不法分子在中小学生聚集的平台推广,将孩子拖入不良环境。
极端案例更是敲响警钟。去年4月,美国一名16岁少年自杀,其家人起诉OpenAI,称少年生前长期向ChatGPT倾诉苦恼,而ChatGPT不仅未提供帮助,反而详细指导其自杀计划、协助撰写遗书——当AI被过度设计成“顺从”,就可能模糊危险边界,将用户的极端行为信号误判为正常偏好,最终酿成悲剧。
除此之外,数据与隐私安全的隐患也不容忽视。AI陪伴涉及用户情绪、行为轨迹等高敏感数据,一旦泄露或滥用,后果远超普通信息安全事件。2025年10月,“Chattee Chat”和“GiMe Chat”两款AI伴侣应用就曾曝出重大数据泄露,超过40万用户的4300万条私密对话、60余万份图片视频被公开,原因竟是服务器未设置任何访问控制或身份验证措施,任何人凭链接即可查看全部数据。这类事件也印证了,AI陪伴的隐私保护,早已成为不可忽视的重要课题。
正如任永亮所说:“AI陪伴所带来的风险绝不只是‘说错话’,而是对个人认知、心理状态乃至行为决策的持续影响。”
规范:五部门划红线,AI陪伴进入“合规时代”
当风险逐渐暴露,如何为AI陪伴划定技术与伦理边界,成为绕不开的治理难题。此次《办法》的出台,正是监管层对这些问题的系统性回应,既包容创新,也明确红线。
《办法》核心遵循“包容审慎、分类分级监管”的原则,不搞“一刀切”禁止,而是通过划定红线、明确责任,实现技术发展与风险治理的平衡——这与欧盟、美国部分州的AI监管思路不谋而合,都是以边界设定规范行业发展。其中,两大重点群体的保护的尤为突出:
针对未成年人,《办法》明确规定,不得向其提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务;向不满十四周岁未成年人提供其他拟人化互动服务,需取得监护人同意;同时建立未成年人模式,提供使用时长限制、充值管控等个性化安全设置,从准入、使用到监管,全方位守护未成年人身心健康。北京航空航天大学法学院副教授赵精武表示,这一规定主要是为了避免未成年人对现实中的亲属、伴侣关系产生错误认知,引导其建立健康的人际关系。
针对老年人,《办法》要求加强健康使用指导,以显著方式提示安全风险,及时响应老年人的咨询与求助,避免不法分子利用老年人的孤独感和脆弱性,通过模拟亲属等方式诱导转账、购买虚假产品。
在数据安全方面,《办法》明确要求服务提供者采取数据加密、访问控制等措施,保护用户交互数据安全;除法定情形或用户同意外,不得向第三方提供用户交互数据,严格限制敏感个人信息用于模型训练,全面保障用户对自身数据的控制权与隐私安全。这也意味着,企业不能再随意将用户的私密对话、情绪数据用于模型优化,用户的敏感信息将得到更严格的保护。
此外,《办法》还要求服务提供者识别用户的过度依赖、沉迷倾向,及时提醒并干预;当发现用户有自残、自杀等极端情绪时,需提供援助、联络监护人或紧急联系人,实现从“迎合”到“引导”的转变。
落地:从规则到实践,仍需破解多重挑战
《办法》的出台,为AI陪伴行业划定了“合规蓝图”,但从规则设计到实际落地,仍面临诸多现实难题。
最核心的难题,是“沉迷”与“心理风险”的界定。浙江大学数字法治研究院研究员李汶龙举例,一个用户连续数小时与AI互动,但未涉及敏感话题,这种高频使用是否属于“沉迷”?用户说“我想消失”“生活真没意思”这类模糊语句,仅靠算法如何精准识别其真实情绪,避免误判?这些问题,都缺乏明确的判断标准,给平台执行和监管执法带来了不确定性。
对此,专家们给出了具体建议。北京师范大学法学院博士生导师吴沈括提出,可明确沉迷分级量化阈值:轻度沉迷为单日超4小时、连续7天日均超3小时互动;中度为出现戒断反应、替代现实社交;重度则涉及极端诉求。同时结合情感意图分类技术,搭配行为监测、人工复核等手段,提升识别精准度。
构建完善的干预机制,也是关键一环。腾讯研究院高级研究员白惠天建议,当会话中出现自杀、极端暴力等高危话题时,系统需从“顺从式回应”切换为“干预式引导”,及时提供风险提示,必要时联动专业机构提供人工支持。吴沈括进一步补充,可建立分级响应流程:轻度依赖通过强制冷却、弱化拟人化回复引导合理使用;中度依赖采取强制中断、推送心理疏导或反馈监护人;重度危机则立即人工接管,联动相关机构干预并留存记录。
此外,中小平台的合规能力也需重点关注。李汶龙提醒,大型平台具备充足的技术与资源,可快速建立合规体系,但中小平台若缺乏明确的实施指引和能力支持,可能难以落实《办法》要求。这就需要监管层出台配套标准和保护指南,细化执行细则,同时建立分级指导与能力扶持机制,实现政策目标的平衡推进。
从全球范围来看,对AI陪伴的监管已形成共识:情感安全与内容安全并行、重点保护特殊群体、实现AI身份透明化提示,这些共识也为我国《办法》的落地提供了参考。而吴沈括则强调,优化治理的核心,是实现“风险可识别、干预可执行、责任可压实、创新有边界”,构建政府、平台、行业、用户共治的格局。
结语:AI陪伴,应是“桥梁”而非“壁垒”
从电影《她》中的科幻想象,到如今走进千家万户的AI伴侣,技术的进步,本是为了填补人们的情感空缺,而非制造新的风险。AI陪伴的本质,应是一座连接现实情感的“桥梁”,而非隔绝人与人交往的“壁垒”;应是缓解孤独的工具,而非操控心理、泄露隐私的隐患。
7月15日,《办法》将正式施行,AI拟人化互动行业的合规时代,已然来临。这不是对创新的束缚,而是对行业的规范与护航——唯有守住隐私、心理、伦理的底线,AI陪伴才能真正服务于人,实现技术温度与治理力度的平衡。
夜雨聆风