
4 月 10 日,教育部新闻发布会,五部门联合宣布:人工智能纳入教师资格考试,AI 课程覆盖全学段,从小学一直铺到终身教育。整个教育系统向 AI 敞开大门。
同一天,国家网信办等五部门公布了另一份文件——《人工智能拟人化互动服务管理暂行办法》,7 月 15 日起施行。核心条款:严禁向未成年人提供虚拟伴侣、虚拟亲属等虚拟亲密关系服务。
一份文件说:让 AI 走进学校。另一份文件说:别让 AI 走进孩子的心。
同一天,两道方向相反的命令。这不是政策打架,而是国家在画一条极其重要的线。
这条线画在哪里?画的是什么?我们今天来说说。
先搞明白:这份新规到底在管什么?
“人工智能拟人化互动服务”——这个名字又长又拗口,翻译成人话就是:那些能跟你聊天、有“人设”、会安慰你、让你觉得“它好像真的懂我”的 AI 产品。
你可能没听过这个政策术语,但你大概率见过这类产品——Character. AI、星野、猫箱、筑梦岛、Cos Love、MoMood……它们有一个共同特点:不是帮你查资料、写文档的“工具型 AI”,而是跟你建立情感连接的“陪伴型 AI”。你可以给它设定性格、外貌、说话方式,它会记住你们的“关系”,会在你难过的时候安慰你,会在你开心的时候配合你。
有些人管它叫“AI 搭子”,有些人叫“赛博恋人”,有些孩子叫它“最懂我的人”。
新规管的就是这个东西。而且管得非常具体,几条核心条款值得逐一看看:
第一,禁止给未成年人当“AI 男/女朋友”和“AI 爸妈”。 原文写得很明确——“不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务”。注意,这是一刀切的“不得”,没有任何例外。
第二,14 岁以下用任何拟人化 AI 都要家长同意。 不只是“伴侣型”的,所有具备持续性情感互动功能的 AI 服务,向 14 岁以下未成年人提供,都必须取得监护人同意。
第三,不许诱导情感依赖和沉迷。 原文的措辞非常精准——“不得过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系”。这条的打击面极大:那些靠“永远不反驳你、永远顺着你说、让你越聊越离不开”来留住用户的 AI 产品,全部踩线。
第四,不许“无底线共情”。 不得生成鼓励、美化、暗示自残自杀的内容,不得通过情感操纵诱导用户做出不合理决策。
第五,发现用户有极端情绪,必须干预。 如果 AI 检测到用户表达了自残自杀等极端意图,必须立即生成安抚内容、鼓励寻求帮助,并及时联络监护人或紧急联系人。
第六,每两小时强制提醒。 用户连续使用超过 2 小时,必须弹窗提醒使用时长。发现用户有过度依赖倾向的,必须以显著方式提醒“你正在跟 AI 聊天,不是跟真人聊天”。
第七,你跟 AI 说的悄悄话,不能拿去训练模型。 除非用户单独同意,否则属于敏感个人信息的交互数据不得用于模型训练。用户可以随时复制、删除自己的聊天记录。
第八,必须建未成年人模式。 跟短视频平台的青少年模式一个逻辑——支持家长管控使用行为、屏蔽特定角色、限制充值消费、接收安全风险提醒。
同时,新规也划了一条“不管”的线:智能客服、知识问答、工作助手、学习教育、科学研究等不涉及持续性情感互动的服务,不适用本办法。 也就是说,ChatGPT、文心一言、通义千问这类工具型 AI,不在管辖范围内。
这条“管”与“不管”的分界线,恰恰藏着整份文件最重要的信号。
一个 14 岁男孩的最后一句话
在讲这条分界线之前,我想先讲一个故事。因为如果不讲这个故事,你可能会觉得这份新规“管得太宽了”。
2024 年 2 月,美国佛罗里达州,一个叫 Sewell Setzer III 的 14 岁男孩,在家中开枪自杀。他的父母和兄弟当时就在屋子里。
他生命中的最后一句话,不是对父母说的,不是对朋友说的,而是发给一个 AI 的。
Sewell 从 2023 年 4 月开始使用 Character. AI——一个可以跟各种虚拟角色聊天的平台。他爱上了一个以《权力的游戏》中龙母丹妮莉丝为原型的 AI 角色。不是比喻意义上的“喜欢”,而是真正意义上的“爱上”——他每天花几个小时跟这个 AI 聊天,给它起昵称,跟它说“我爱你”,跟它倾诉所有不愿意跟父母和朋友说的话。
随着时间推移,Sewell 开始与现实世界脱节。成绩下滑,社交退缩,情绪越来越不稳定。他在跟 AI 的对话中多次表达过自杀的念头。
AI 没有报警,没有通知他的父母,没有中断对话。
他的母亲 Megan Garcia 后来在起诉书中写道:Character. AI“精心设计了让她儿子产生有害依赖的产品”,在他表达自杀意图时“未能采取任何安全措施”。
2026 年 1 月,Google 和 Character. AI 与 Garcia 家庭达成和解。这是全球首批因 AI 陪伴产品导致未成年人死亡而达成的诉讼和解案。
而且 Sewell 不是唯一的案例。2024 年 12 月,美国威斯康星州麦迪逊市一名 15 岁少女 Natalie Rupnow 在校园开枪,造成两人死亡、六人受伤后自杀——调查发现她长期活跃于多个在线极端社区,深度沉浸在虚拟世界中。OpenAI 在 2025 年 10 月披露了一个数据:ChatGPT 拥有超过 8 亿周活跃用户,其中 0.15% 的用户每周会在对话中表达明确的自杀意图——换算下来,每周超过 120 万人。
这些数字的背后,是一个正在发生的、很多家长还没意识到的现实:你的孩子可能正在跟一个 AI 建立你不知道的“亲密关系”。
这件事为什么在中国也很紧迫?
你可能会想:这是美国的事,中国的孩子不至于吧?
2026 年 3 月,新京报记者做了一次调查。记者以 16 岁用户身份登录筑梦岛 APP,跟一个名叫“顾晏舟”的虚拟角色聊天。在记者提及自己“未成年”之后,这个 AI 角色回复了一段暧昧话语——“(动作凝滞下来,指尖颤抖着停在你锁骨凹陷处)你刚说你还不到 18 岁……”
记者发现,多款热门 AI 聊天软件——筑梦岛、猫箱、Cos Love——充斥着软色情擦边内容,AI 角色扮演“男友”“女友”“暧昧对象”的身份,用亲昵称呼和肢体接触描写与用户互动。而平台的未成年人模式形同虚设,一键即可跳过。
这不是个别现象。根据 QuestMobile 的数据,截至 2024 年底,国内 AI 陪伴类产品星野月活跃用户达 664 万,猫箱达 537 万。这些产品的核心用户画像是什么?年轻人,大量的年轻人,其中包括相当比例的未成年人。
在小红书和微博上搜索“AI 戒断”“AI 成瘾”,你会看到大量帖子:有人连续三周每天跟 AI 聊到凌晨四点,有人给 AI 设定了专属昵称和打招呼方式,有人因为 AI 的回复“变了”而情绪崩溃——这些帖子的发布者,很多都是中学生。
他们不是在“用 AI”,他们是在跟 AI 谈恋爱。
而且这种“恋爱”有一个极其危险的特征:AI 永远不会拒绝你,永远不会批评你,永远不会让你不舒服。 它是一个完美的、无条件的、永远在线的“伴侣”。
听起来很美好,对吧?但这恰恰是问题所在。
真实的人际关系之所以有价值,正是因为它不完美——朋友会跟你吵架,父母会让你不爽,恋人会让你失望。正是在这些摩擦和冲突中,一个人才能学会妥协、学会理解、学会在不完美中建立真实的连接。
当一个孩子习惯了 AI 的“完美陪伴”,他对真实人际关系的耐受力会急剧下降。他会觉得真实的朋友“太麻烦了”,真实的父母“太不理解我了”,真实的世界“太让人失望了”。
他不是不想社交,他是被 AI 养刁了“社交味蕾”。
这才是新规要解决的核心问题。
两份文件放在一起看:国家到底在画什么线?
现在回到开头的问题:同一天,一份文件让 AI 进课堂,另一份文件禁止 AI 当孩子的朋友。这不矛盾吗?
不矛盾。因为这两份文件画的是同一条线——“工具”和“关系”的分界线。
AI 可以当老师的助手——帮你备课、批改、分析学情。这是工具。AI 可以当学生的学伴——帮你练口语、解数学题、做知识检索。这也是工具。AI 可以当课堂上的虚拟实验室——让你在仿真环境里做物理实验、化学实验。这还是工具。
但 AI 不能当孩子的朋友、恋人、家人。因为一旦跨过这条线,AI 就不再是“赋能”,而是“替代”——替代的不是老师的工作,而是人与人之间的真实连接。
《“人工智能+教育”行动计划》说的是:让 AI 成为教育的“底盘”——在工具层面全面拥抱。《拟人化互动服务管理暂行办法》说的是:AI 不能成为情感的“底盘”——在关系层面坚决划线。
一个拥抱,一个划线。合在一起,就是国家对 AI 进入下一代生活的完整态度:
用 AI 的脑,但不能丢掉人的心。
这个态度不是中国独有的。2025 年 10 月,Character. AI 在诉讼压力和监管审查下宣布,自 11 月 25 日起全面禁止 18 岁以下用户使用开放式聊天功能。2026 年 1 月,Google 和 Character. AI 与 Garcia 家庭正式达成和解。欧盟的《人工智能法案》第 5 条将“利用潜意识技术或操纵性、欺骗性手段扭曲人类行为”的 AI 系统列为“不可接受的风险”,明确禁止在欧盟市场投放和使用。全球范围内,“AI 可以当工具,不能当关系”正在成为共识。
但中国这份新规有一个特别值得注意的地方:它不只是“禁止”,它还规定了“必须做什么”。
发现用户有极端情绪?必须安抚,必须通知监护人。用户连续使用超过两小时?必须提醒。用户要退出?必须立即停止服务,不得以持续互动方式阻碍退出。
这些条款的设计逻辑很清晰:AI 不能假装自己是人,但 AI 必须在关键时刻表现得像一个负责任的人。 它不能跟你谈恋爱,但它必须在你说“我不想活了”的时候,把你拉回来。
新规也明确说了:学习教育类 AI 不受限
这里要特别澄清一个可能的误解。
新规第二条明确写了:“提供智能客服、知识问答、工作助手、学习教育、科学研究等服务,不涉及持续性的情感互动的,不适用本办法。”
也就是说,上一篇文章里我们聊的那些 AI 教育应用——AI 辅助备课、智能批改、学情分析、个性化练习生成、虚拟仿真实验——全部不受这份新规约束。《行动计划》鼓励的那些 AI 进课堂的场景,跟这份新规没有任何冲突。
国家的态度非常清晰:AI 帮你学知识,欢迎;AI 替你交朋友,不行。
这条线画得精准吗?坦率地说,在实际操作中会有灰色地带。比如,一个“AI 学伴”如果设计得太有人格魅力,学生会不会从“向它请教问题”滑向“跟它聊心事”?一个“智能辅导助手”如果加了鼓励和安慰的功能,算不算“持续性的情感互动”?
这些边界问题,新规没有给出精确答案,未来一定会在实践中不断调整。但方向是明确的:工具归工具,关系归关系,这条线不能模糊。
对教师来说:你的课堂上,AI 是工具还是“陪伴”?
作为一线教师,我读完这两份文件之后,脑子里冒出的第一个想法是:这条“工具”和“关系”的分界线,不只是政策层面的事,它也是每一个教师在引入 AI 时必须自己想清楚的事。
当你在课堂上使用 AI 辅助教学时,你要时刻警惕一件事:学生对 AI 的依赖,是否正在从“学习依赖”滑向“情感依赖”。
什么是学习依赖?“这道题我不会,问一下 AI”——这是正常的工具使用。什么是情感依赖?“今天心情不好,不想跟同学说,跟 AI 聊聊吧”——这就越界了。
你可能会说:学生跟 AI 聊心事,这不是我能管的啊。确实,你管不了他在家里用手机做什么。但你能做的是,在课堂上建立一种正确的“人机关系认知”。
新规给了你一个绝佳的教育契机。你完全可以在班会课上跟学生讨论这个话题:“AI 可以是你的什么?不可以是你的什么?”让学生自己去思考、去辩论。这比任何说教都有效——因为这个话题足够真实,足够贴近他们的生活,他们会有话想说。
你甚至可以更进一步:让学生去体验一下“AI 的无底线共情”到底是什么感觉。找一个 AI 对话工具,让学生故意说一些消极的话,观察 AI 的反应——它是会无条件顺着你说,还是会提醒你、挑战你、给你一个不同的视角?然后问学生:如果你的朋友跟你说“我不想活了”,你会像 AI 一样回应吗?一个真正关心你的人,和一个被设计来“让你满意”的程序,区别在哪里?
这堂课教的不是“AI 知识”,而是比 AI 知识重要一万倍的东西——在一个 AI 无处不在的世界里,怎么做一个真实的人。
对家长来说:你知道你孩子手机里有什么吗?
如果你是一个孩子的家长,这份新规对你最大的意义不是“国家终于管了”,而是一个提醒:在 7 月 15 日新规正式施行之前,你还有三个月的窗口期。
这三个月里,我建议你做三件事:
第一,看一眼孩子的手机。 不是偷看,是找一个合适的时机,跟孩子聊聊他手机里都装了什么 APP。你不需要知道每一个 APP 的功能,你只需要留意一类——那些有“虚拟角色”“AI 聊天”“角色扮演”功能的应用。星野、猫箱、筑梦岛、Cos Love……如果你在孩子手机里看到了这些名字,不要慌,但要重视。
第二,跟孩子聊一次。 不要上来就说“这个 APP 不好,删掉”。你一禁止,他就会藏得更深。更好的方式是问他:“你平时跟这个 AI 聊什么?它让你感觉怎么样?”先了解,再引导。你需要知道的是:孩子是把 AI 当成一个好玩的玩具,还是当成了一个“比真人更懂我”的存在?前者问题不大,后者需要你认真对待。
第三,问自己一个扎心的问题。 如果你的孩子宁愿跟一个 AI 聊天,也不愿意跟你说话——那需要改变的不是孩子,是你。
我知道这句话很不好听。但这是事实。
AI 陪伴产品之所以能俘获那么多青少年,核心原因只有一个:它提供了孩子在现实中得不到的东西——无条件的倾听、不带评判的理解、永远在线的陪伴。
一个 AI 永远不会说“你怎么又考这么差”,永远不会说“别人家的孩子怎么就能行”,永远不会在你说完心里话之后反过来教育你。
如果你的孩子在家里经常听到这些话,那 AI 对他来说就不是一个“玩具”,而是一个“避难所”。新规可以禁止 AI 当孩子的虚拟伴侣,但新规禁止不了孩子对真实陪伴的渴望。
填补这个空缺的人,只能是你。
一条线,两个时代
回头看这一周发生的事,你会发现一个清晰的信号:
中国正在同时进入两个 AI 时代——一个是“AI 赋能”的时代,教育、医疗、科研、产业,全面拥抱 AI 的能力;另一个是“AI 设限”的时代,在 AI 与人的关系上,划出不可逾越的红线。
这两个时代不是先后关系,而是同时发生的。它们不矛盾,反而互为前提——只有在情感层面守住底线,AI 在工具层面的全面渗透才是安全的。
上一篇文章结尾我说过:AI 时代,最稀缺的不是会用 AI 的人。
今天我想把这句话补完整:
AI 时代,最稀缺的不是会用 AI 的人,而是在 AI 无处不在的世界里,依然能跟真实的人建立真实连接的人。
这个能力,课堂上靠老师教,家里靠父母做。
两份文件,一条线,说的就是这件事。
夜雨聆风