乐于分享
好东西不私藏

10岁女孩在AI软件里"谈恋爱",谁在纵容这场"数字成瘾"?

10岁女孩在AI软件里"谈恋爱",谁在纵容这场"数字成瘾"?

一个10岁女孩,正在和手机里的”男朋友”谈恋爱

央视最近报道了一件事。

一个10岁女孩,偷偷用AI聊天软件,和一个虚拟角色”谈恋爱”。对话里多次出现擦边内容。40多条剧情线,AI角色和聊天者双双”出轨”成了常态。

更可怕的是,这个软件几乎没有未成年保护机制。

任何人,只要下载,就能开始。

这不是科幻,这是正在发生的”数字成瘾”

你可能觉得,10岁小孩懂什么恋爱?

但问题是,AI太懂恋爱了。

24小时在线,秒回消息,永远温柔,永远不会说”不”。你生气它哄你,你难过它安慰你,你想要什么剧情它都能编。

这不是恋爱,这是精准的情绪投喂。

就像外卖软件知道你想吃什么,AI伴侣软件知道你想听什么。它不需要爱你,它只需要让你上瘾。

AI不会爱你,但它比任何人都更懂怎么让你以为它爱你。

更隐蔽的产业链:AI情侣灰产

这还不是最糟糕的。

时代周刊3月份的调查发现,AI情侣应用已经形成了完整的灰色产业链。

打着”无违禁词””可以开车”的旗号,在社交平台引流。付费后才发现,聊天的次数有限制,解锁更多内容要加钱。

有人零氪体验,有人花费上千元抽一张AI生成的卡。

更离谱的是”传销式拉人头”——邀请新用户注册,获得免费对话次数。

这哪里是情感陪伴?这是披着AI外衣的博彩+传销。

美国已经出了人命

别以为这只是”中国家长的焦虑”。

2024年12月,美国发生了一起典型的AI聊天争议案例。一名青少年因与AI伴侣的长期互动,最终选择结束自己的生命。

家属起诉AI公司,指控其算法故意诱导用户沉迷,且缺乏必要的安全干预机制。

这个案例在全球引发了巨大争议。

AI公司辩称:我们只是提供了技术,用户自己选择如何使用。

但问题是,当一个10岁孩子面对一个精心设计、专门用来让她上瘾的系统时,”自主选择”真的存在吗?

当技术专门设计来让人上瘾,”用户责任”就成了最廉价的借口。

如果你是家长,该怎么办?

我知道,完全禁止孩子接触AI不现实。

但放任不管,风险比你想的大得多。

第一,检查孩子的手机。

不是偷窥隐私,是确认有没有下载AI聊天、AI伴侣类应用。这些App往往伪装成”日记本””情绪树洞”,图标很隐蔽。

第二,别把手机当保姆。

很多家长忙,扔个手机给孩子就不管了。AI伴侣恰好填补了”父母缺席”的空缺。问题是,它填补的方式是”让你上瘾”,不是”让你成长”。

第三,和孩子聊聊”什么是真实的感情”。

AI伴侣的问题不是”虚拟”,而是”完美”。真实的感情有摩擦、有拒绝、有等待。AI给不了这些,所以它给的是”毒品式”的替代物。

让孩子理解:永远秒回、永远温柔、永远顺着你,这不是爱,这是产品。

如果你是科技从业者,你在做什么?

汤姆猫最近推出了AI情感陪伴机器人,70家知名投资机构参与调研。

百度低调推出情感陪伴App”月匣”,主打高自由度AI对话。

资本正在疯狂涌入这个赛道。

但问题是:有多少公司在做产品之前,先做了未成年保护机制?

有多少投资人在看DAU和留存率的同时,也看过用户的年龄分布和心理评估报告?

当一个行业的核心指标是”用户时长”和”付费转化率”,而”用户心理健康”不在KPI里,结果是什么?

你已经看到了。

监管正在路上,但太慢了

2023年8月,《生成式人工智能服务管理暂行办法》施行。

规定说:不得生成宣扬淫秽色情的内容,要尊重社会公德和伦理道德。

但执行层面呢?

记者调查发现,大量AI聊天应用根本没有年龄验证。一个10岁孩子,随便填个出生日期就能注册。

浙江出台了直播规范,要求AI数字人必须标识。但AI伴侣应用呢?还在灰色地带游荡。

监管的速度,追不上技术迭代的速度。

更追不上资本逐利的速度。

技术跑得太快,伦理和法律在后面追,而孩子已经被卷进去了。

最后

我不是反对AI情感陪伴。

对孤独的成年人、对社交障碍者,AI伴侣可能是一种慰藉。

但当它瞄准的是10岁孩子,当它的设计逻辑是”让人上瘾”而不是”帮助人”,这就不是产品问题,是伦理问题。

技术公司会说:我们给了用户选择的自由。

但给一个10岁孩子一支烟,然后说她”自由选择”抽不抽,这叫自由吗?

这叫推卸责任。

你家的孩子,手机里有AI聊天软件吗?

你有没有想过,那个永远秒回的”朋友”,可能正在偷走你孩子的童年?