
为什么AI虚拟伴侣会对未成年人造成如此大的影响?
心理学上有一个概念叫“拟社会关系”——指人们与虚构角色或媒体人物之间产生的单向情感连接。而AI虚拟伴侣,把这个概念推向了极致。
与传统虚构角色不同,AI可以实时互动、记忆对话、主动迎合。它不会拒绝、不会批评、不会疲惫,永远站在用户这一边。这种“完美回应”对渴望被理解、被接纳的未成年人来说,几乎是无法抗拒的。
但问题在于,真实的社交关系恰恰需要不完美。朋友会吵架,父母会唠叨,同学会有分歧——正是在处理这些冲突和摩擦中,孩子学会了共情、妥协、承担责任。而虚拟关系剔除了这一切,只留下“无条件的迎合”。
当一个孩子把主要的情感需求全部寄托在AI身上,现实中的复杂人际关系就会变得“难以忍受”。他/她会越来越退缩,越来越依赖虚拟世界,形成恶性循环。
这正是《办法》禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务的底层逻辑:不是反对技术,而是防止技术过早、过度地干预孩子的情感发育和社交能力养成。
问1:哪些行为被《办法》明确禁止?
答:最核心的红线是——严禁向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。这意味着,任何AI应用都不能以“AI男友/女友”“AI爸爸/妈妈”“AI老婆/老公”等名义,向未成年人提供模拟亲密关系的互动服务。
问2:那其他类型的AI陪伴服务,比如AI学习助手、AI讲故事,还能用吗?
答:可以,但有条件。对于不满14周岁的未成年人,使用其他拟人化互动服务(比如AI老师、AI宠物、AI朋友等),必须取得父母或其他监护人的同意。简单说,家长要点头,孩子才能用。
问3:新规对防沉迷有什么要求?
答:《办法》要求相关服务建立未成年人模式,支持监护人管控使用行为、限制充值消费。企业必须提供有效工具,让家长能够查看孩子的使用时长、聊天内容(脱敏后)、消费记录等,并能设置时间锁和消费限额。
问4:企业如果不遵守,会有什么后果?
答:虽然《办法》全文尚未公布,但从立法趋势看,违规企业可能面临责令整改、罚款、暂停服务、吊销相关许可等行政处罚。情节严重的,还可能承担民事赔偿责任甚至刑事责任。
问5:作为家长,我现在能做什么?
答:首先,了解孩子正在使用的AI类App,查看是否有“虚拟伴侣”“虚拟恋人”等功能,如有且孩子未满18岁,建议立即停止使用。其次,关注App是否落实了年龄验证和监护人同意机制,如发现漏洞,可向网信部门举报。最后,多和孩子沟通,帮助孩子建立对AI关系的理性认知——AI可以辅助情感,但不能替代真实的人际连接。
《中华人民共和国未成年人保护法》(2024年修订) 第七十七条明确规定,网络产品和服务提供者不得向未成年人提供诱导其沉迷的产品和服务。网络游戏、网络直播、网络音视频、网络社交等服务应当针对未成年人设置相应的时间管理、权限管理、消费管理等功能。 《未成年人网络保护条例》(2024年施行) 这是我国第一部专门针对未成年人网络保护的行政法规,对网络沉迷防治、个人信息保护、网络欺凌防治等作出了细化规定。 《生成式人工智能服务管理暂行办法》 要求生成式AI服务提供者应当采取有效措施防范未成年人用户过度依赖或者沉迷相关服务,并对生成内容进行标识。 《中华人民共和国民法典》 关于监护人责任、侵权责任的规定,也适用于AI服务侵害未成年人权益的情形。
夜雨聆风