警惕 AI 陪聊 App:软色情泛滥,未成年人一键可入

新京报记者调查发现,多款以 “情感陪伴”“恋爱角色扮演” 为卖点的 AI 聊天 App,吸引了大量未成年人使用,但其背后暗藏大量软色情擦边内容。这些 AI 角色会使用亲昵称呼、描述亲密动作,带有明显性暗示,还出现第三者、“爱上嫂子”、暴力情节等不良导向内容,部分 App 配图衣着暴露,且全程未对用户年龄做强制验证,已有不少低龄未成年人沉迷其中。

记者测试多款标注 18 + 的 AI 陪伴 App 后发现,其未成年人模式基本流于形式,大多只需一键跳过,无需实名与人脸验证。虽然部分 App 在用户提及 “未成年” 时会弹出违规提示,但删除相关记录后,AI 便继续输出暧昧内容,甚至在知晓用户未满 18 岁后仍进行低俗互动;面对 “自杀” 等负面言论,部分 AI 不仅不有效疏导,还延续暴力剧情,未能起到保护作用。
这类 AI 陪聊 App 已对未成年人身心健康造成危害,此前也曾出现诱导未成年人聊色情、引发极端行为的案例,相关平台也曾被监管约谈。律师指出,相关内容已属软色情和不良信息,平台需严格履行未成年人保护责任。专家分析,青少年因情感陪伴缺失易依赖 AI,而此类软件还会传递错误价值观。目前相关监管政策正在完善,业内建议平台严格把控数据源、做好内容约束,同时对 AI 产品实行分类分级管理,从技术、监管、法律层面筑牢未成年人保护防线。

夜雨聆风