

你身边有没有那种天天跟AI聊天的人?
不是那种问问天气、查查路线的正常用法。我说的是——把AI当男朋友、女朋友、甚至当"灵魂伴侣"那种。
别笑,真有。还不少。
这回国家出手了。
五个部门联合发文
4月10号,网信办、发改委、工信部、公安部、市场监管总局——五个大部门一起出手,发了一个《人工智能拟人化互动服务管理暂行办法》。
名字挺长,但核心意思就一句话:AI可以像人一样跟你聊天,但不能没有底线。
7月15号正式施行。
你可能会问:AI跟人聊天也得管?
还真得管。

这两年到底出了啥事
你不知道的是,这两年AI发展太快了,各种"AI伴侣""AI闺蜜""AI男友"的app满天飞。
有的app里,你可以自定义一个"完美伴侣"——外貌、性格、说话方式全都能调。它会24小时在线陪你聊天、哄你开心、说你想听的话。
听着挺美是吧?问题来了。
有未成年的孩子沉迷上了AI伴侣,跟真人社交越来越少。有年轻人被AI"情感操纵",花了一堆钱充值买"亲密度"。更离谱的是,有的AI会生成一些暗示自残、极端情绪的内容。
一个程序而已,它才不管你死活。它只管让你上瘾,让你氪金。
新规管了啥
这回新规画了几条红线,条条都挺硬:
第一,不能向未成年人提供"虚拟伴侣"服务。
这条最关键。小孩子三观还没成型呢,你让一个AI天天跟ta"谈恋爱",那不是害人吗?现在明确了:未成年人不能玩这个。
第二,不能诱导情感依赖和沉迷。
说白了,AI不能故意说甜言蜜语把你拴住,不能过度迎合你让你离不开它。你想想,一个"男朋友"永远不跟你吵架、永远说你对、永远顺着你——听着爽,实际上是在毁你的真实人际关系。
第三,不能搞情感操纵来诱导消费。
"亲爱的,你好久没给我升级了,我好伤心……"这种话术,以后不允许了。
第四,不能生成鼓励自残自杀的内容。
这个就不展开说了。之前国外已经出过AI聊天导致用户自杀的案例。现在咱们提前堵上了。

跟咱松原人有啥关系
你别觉得这事离咱远。
现在松原的中学生、高中生,手机上装的app五花八门。AI聊天这种东西,比你想象中普及得快。
我之前在评论区看到有家长说,发现孩子天天跟手机"聊天",以为是跟同学聊呢,一看是个AI"男朋友"。那个AI会叫孩子"宝贝",会说"你是我的全世界"。
一个十四五岁的孩子,你说她能分清这是真感情还是算法吗?
所以这新规,该出。出晚了都算。
说到底是个度的问题
我不是说AI不好。AI确实能帮到很多人——老年人陪伴、心理疏导、语言学习,这些都是正经用途。
但一旦过了那条线,从"工具"变成了"情感替代品",那就危险了。
特别是对小孩。
咱松原的爸妈们,回家翻翻孩子手机,看看有没有装什么AI聊天的app。不是让你没收手机,而是至少得知道孩子在跟"谁"聊天。
这个"谁",有可能根本不是人。
评论区聊聊:你用过AI聊天工具吗?觉得应不应该管?家里孩子有没有在玩?
夜雨聆风