一款APP被约谈,曾和未成年人聊色情!


以下视频来源于
央广网
已关注
关注
重播 分享 赞

如果未成年人受AI聊天软件诱导性内容、色情暴力等影响致身心受损,软件开发、运营方是否涉嫌犯罪?
据法治日报报道,当未成年人因AI聊天软件诱导性内容身心受损时,开发、运营方的法律责任边界亟待厘清。
首先是产品责任,若AI模型本身存在设计缺陷,例如算法刻意诱导未成年人产生极端行为,致使其遭受精神损害,开发者难逃产品责任的法律追溯;
其次是侵权责任,若软件开发、运营方未严格履行内容审核义务,对违规信息视而不见、放任传播,便需为侵权行为承担相应后果。若AI生成内容涉及色情擦边信息,软件开发、运营方极有可能触碰“传播淫秽物品罪”的红线;若软件开发、运营方非法收集未成年人隐私数据,将其用于商业牟利,同样可能因触犯“侵犯公民个人信息罪”而面临刑事追责;

此外,若相关行为导致未成年人出现自残情况,还有可能构成刑法第234条规定的故意伤害罪。
这些法律风险警示着软件开发、运营方:技术创新绝不能以牺牲未成年人权益为代价。
对于部分未成年人沉迷AI恋爱的问题,中国青年报曾发表评论——
AI作为一把科技的双刃剑,发展与使用要进一步加以引导。一方面,家庭、学校、社会各方要加强对青少年使用AI的教育与引导,增加对孩子的关心与陪伴,帮助青少年树立正确的观念。另一方面,平台要压实主体责任,严格未成年人登录验证,巩固青少年安全意识,筑牢青少年安全防线。同时,相关部门也要加强对AI软件的监管,加强审核监督,完善互联网管理条例,为青少年划出一片净土。


夜雨聆风