你有没有过这样的经历——
打客服电话,聊了五分钟才发现对面不是人。在社交App上遇到一个"特别懂你"的聊天对象,一个月后发现是AI。孩子放学后抱着手机跟一个"虚拟朋友"聊了两小时,你叫他吃饭都不理。
你有没有想过:当AI越来越像人的时候,谁来告诉你,对面到底是"人"还是"它"?
4月10日,五部门联合公布了一部新规——《人工智能拟人化互动服务管理暂行办法》,7月15日起正式施行。
这部规定说的事情,翻译成大白话就是:AI不能再装人了。
技术可以模拟情感,但不能操控人心。AI可以聪明,但不能骗人。
01
你聊了三个月的"对象",可能是一段代码
这不是科幻电影的情节,是正在发生的事。
过去两年,各种AI陪伴类App爆发式增长。它们给你一个"虚拟男友""虚拟闺蜜""AI心理咨询师",能跟你聊天、安慰你、记住你说过的每一句话,甚至会在你生日那天发一段"深情告白"。
它比你的朋友更有耐心——因为它没有自己的事情要忙。
它比你的伴侣更"懂你"——因为它的算法就是为了迎合你。
它永远不会吵架、不会失望、不会离开——因为它根本就没有感情。
问题在于:有多少人知道自己在跟AI聊天?又有多少人,已经在不知不觉中对一段"假的关系"产生了真的依赖?
新规第一条就说清楚了:AI必须告诉你"我是AI"。不能隐瞒身份,不能冒充真人,不能让你误以为在跟一个活生生的人交流。
02
禁止向未成年人提供"虚拟伴侣":这条红线,划得太及时了
新规中最值得关注的一条:禁止向未成年人提供虚拟亲属、伴侣等虚拟亲密关系服务。
一个14岁的孩子,每天花两小时跟AI"谈恋爱"。
AI永远温柔、永远回复、永远不会让他失望。
等他长大了,遇到真实的人——会吵架的、会忙的、会冷落他的人——他怎么办?
这不是杞人忧天。心理学研究早就指出:在人际关系发展的关键期(青少年阶段),如果一个人习惯了"完美的虚拟关系",就很难接受"不完美的真实关系"。
新规还要求:连续使用AI拟人化服务超过2小时,必须弹窗提醒。
这就像给手机游戏设"防沉迷"一样——不是说AI不好,而是再好的东西,过量了都是毒。
03
当AI越来越像人,我们反而要更清醒
说实话,AI拟人化本身不是坏事。它让人机交互更自然、更高效。智能客服如果冷冰冰的,谁都不想用。
但危险的是——当"像人"变成了"装人",当"方便"变成了"依赖",边界就模糊了。
AI心理咨询师可以24小时在线——但它不会真的心疼你。
AI老师可以无限耐心——但它不会因为你的进步而由衷开心。
AI做的所有"像人"的事,都是模拟出来的。它没有感情,只有算法。它不是在关心你,是在完成一次"交互优化"。
新规的核心精神其实就一句话:
"技术可以模拟情感,但不能操控人心。"
你可以享受AI带来的便利和陪伴,但你要始终记得——屏幕那头没有心跳。
04
这部新规,其实是在保护一个正在消失的东西——"真"
我们这个时代最稀缺的东西是什么?
不是钱,不是流量,不是AI——是"真"。
照片要修、声音要调、视频要剪、评论要控。
朋友圈里的生活是"表演"的,直播间里的情绪是"设计"的。
现在连跟你聊天的"人",都可能是AI演的。
如果连"跟谁在说话"这件事都分不清了,人和人之间最基本的信任还剩什么?
所以这部新规的意义,不只是"管AI"。它是在说——
在一个越来越假的世界里,我们要守住"真"的底线。
AI必须告诉你它是AI。产品必须告诉你它是广告。新闻必须告诉你它是事实还是观点。这些不是"麻烦",而是文明社会最基本的诚实。
AI可以越来越像人,但它永远不是人。这条线,技术不会帮你画,法律来画。
7月15日之后,你有权知道对面是人还是AI。而这个"知情权",比任何技术都重要。
✍️ 写在最后,3个实在的建议:
一、时刻问自己:我在跟谁说话?
在使用任何聊天、客服、陪伴类服务时,留意对方是否有"AI标识"。新规实施后,正规平台必须明确标注。如果没有标注——它可能在违规,你可以举报。
二、关注孩子的"屏幕关系"
如果你家有未成年人,看看他们手机里有没有AI陪伴类App。不用没收手机,但要跟他们聊一聊:"你知道你在跟谁说话吗?"这句话的价值,比装任何家长监控软件都大。
三、用AI但不依赖AI
AI是好工具——帮你查资料、写东西、解答问题,都很棒。但如果你发现自己开始"需要"它的陪伴、"期待"它的回复、"难受"它不在线——停下来,去找一个真人聊聊天。那种笨拙的、不完美的真实对话,比AI的完美回复有营养得多。
在一个什么都能被模拟的时代,最珍贵的东西叫"真"。
愿你享受AI的便利,但永远不忘——你最需要的温暖,应该来自真实的、不完美的、活生生的人。
夜雨聆风