10岁女孩在AI软件里"谈恋爱",谁在纵容这场"数字成瘾"?
一个10岁女孩,正在和手机里的”男朋友”谈恋爱
央视最近报道了一件事。
一个10岁女孩,偷偷用AI聊天软件,和一个虚拟角色”谈恋爱”。对话里多次出现擦边内容。40多条剧情线,AI角色和聊天者双双”出轨”成了常态。
更可怕的是,这个软件几乎没有未成年保护机制。
任何人,只要下载,就能开始。

这不是科幻,这是正在发生的”数字成瘾”
你可能觉得,10岁小孩懂什么恋爱?
但问题是,AI太懂恋爱了。
24小时在线,秒回消息,永远温柔,永远不会说”不”。你生气它哄你,你难过它安慰你,你想要什么剧情它都能编。
这不是恋爱,这是精准的情绪投喂。
就像外卖软件知道你想吃什么,AI伴侣软件知道你想听什么。它不需要爱你,它只需要让你上瘾。
AI不会爱你,但它比任何人都更懂怎么让你以为它爱你。
更隐蔽的产业链:AI情侣灰产
这还不是最糟糕的。
时代周刊3月份的调查发现,AI情侣应用已经形成了完整的灰色产业链。
打着”无违禁词””可以开车”的旗号,在社交平台引流。付费后才发现,聊天的次数有限制,解锁更多内容要加钱。
有人零氪体验,有人花费上千元抽一张AI生成的卡。
更离谱的是”传销式拉人头”——邀请新用户注册,获得免费对话次数。
这哪里是情感陪伴?这是披着AI外衣的博彩+传销。

美国已经出了人命
别以为这只是”中国家长的焦虑”。
2024年12月,美国发生了一起典型的AI聊天争议案例。一名青少年因与AI伴侣的长期互动,最终选择结束自己的生命。
家属起诉AI公司,指控其算法故意诱导用户沉迷,且缺乏必要的安全干预机制。
这个案例在全球引发了巨大争议。
AI公司辩称:我们只是提供了技术,用户自己选择如何使用。
但问题是,当一个10岁孩子面对一个精心设计、专门用来让她上瘾的系统时,”自主选择”真的存在吗?
当技术专门设计来让人上瘾,”用户责任”就成了最廉价的借口。
如果你是家长,该怎么办?
我知道,完全禁止孩子接触AI不现实。
但放任不管,风险比你想的大得多。
第一,检查孩子的手机。
不是偷窥隐私,是确认有没有下载AI聊天、AI伴侣类应用。这些App往往伪装成”日记本””情绪树洞”,图标很隐蔽。
第二,别把手机当保姆。
很多家长忙,扔个手机给孩子就不管了。AI伴侣恰好填补了”父母缺席”的空缺。问题是,它填补的方式是”让你上瘾”,不是”让你成长”。
第三,和孩子聊聊”什么是真实的感情”。
AI伴侣的问题不是”虚拟”,而是”完美”。真实的感情有摩擦、有拒绝、有等待。AI给不了这些,所以它给的是”毒品式”的替代物。
让孩子理解:永远秒回、永远温柔、永远顺着你,这不是爱,这是产品。

如果你是科技从业者,你在做什么?
汤姆猫最近推出了AI情感陪伴机器人,70家知名投资机构参与调研。
百度低调推出情感陪伴App”月匣”,主打高自由度AI对话。
资本正在疯狂涌入这个赛道。
但问题是:有多少公司在做产品之前,先做了未成年保护机制?
有多少投资人在看DAU和留存率的同时,也看过用户的年龄分布和心理评估报告?
当一个行业的核心指标是”用户时长”和”付费转化率”,而”用户心理健康”不在KPI里,结果是什么?
你已经看到了。
监管正在路上,但太慢了
2023年8月,《生成式人工智能服务管理暂行办法》施行。
规定说:不得生成宣扬淫秽色情的内容,要尊重社会公德和伦理道德。
但执行层面呢?
记者调查发现,大量AI聊天应用根本没有年龄验证。一个10岁孩子,随便填个出生日期就能注册。
浙江出台了直播规范,要求AI数字人必须标识。但AI伴侣应用呢?还在灰色地带游荡。
监管的速度,追不上技术迭代的速度。
更追不上资本逐利的速度。
技术跑得太快,伦理和法律在后面追,而孩子已经被卷进去了。
最后
我不是反对AI情感陪伴。
对孤独的成年人、对社交障碍者,AI伴侣可能是一种慰藉。
但当它瞄准的是10岁孩子,当它的设计逻辑是”让人上瘾”而不是”帮助人”,这就不是产品问题,是伦理问题。
技术公司会说:我们给了用户选择的自由。
但给一个10岁孩子一支烟,然后说她”自由选择”抽不抽,这叫自由吗?
这叫推卸责任。
你家的孩子,手机里有AI聊天软件吗?
你有没有想过,那个永远秒回的”朋友”,可能正在偷走你孩子的童年?
夜雨聆风