
4月10日,网信办联合发改委、工信部、公安部、市场监管总局五个部门,一块儿发了一份文件。《人工智能拟人化互动服务管理暂行办法》。
7月15日生效。
我看完这份文件,第一反应是,该管了。
我先说一个数据。去年全网AI陪伴类应用的用户规模破了4亿。你没看错,4亿人。
我手机里就有两个。一个是用来练英语口语的AI外教,另一个是偶尔无聊了聊两句的AI树洞。我身边朋友用AI陪伴的就更多了,有人拿AI当恋爱教练,有人拿AI当心理医生,还有人每天晚上跟AI聊完才睡得着。
这些应用有个共同特点,你跟它说话,它记住你说的每一句。
你半夜三点跟AI倾诉工作压力,它记着。你跟它说你存款多少、谈恋爱受过什么伤、跟父母吵过什么架,它全记着。
然后这些数据去哪了?
以前没人管这个问题。南方都市报4月10日报道里提了一嘴,说按照新规,敏感个人交互数据不得用于模型训练。翻译成大白话就是,你跟AI说的那些掏心窝子的话,以前可能被拿去喂模型了,现在不行了。
还有一条,平台不得向第三方提供用户交互数据。
我看完这条,后背有点凉。你跟AI聊的那些私密话题,以前可能被卖给了广告公司、数据掮客,你完全不知道。

新规里最明确的一条:拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。
虚拟伴侣。说白了就是AI恋人、AI男朋友、AI女朋友。
我现在刷短视频,每隔几条就能刷到一个AI陪伴软件的广告。画面通常是一个长得很漂亮的AI角色,声音甜美,说话温柔,24小时在线,永远不会嫌你烦。
评论区经常有中学生留言,说这个AI比真人好多了,真人会变心,AI不会。
这个问题太大了。一个心智还没成熟的孩子,把情感依赖全放在一段虚拟关系上,你觉得会怎样?
新规要求不满14周岁的未成年人使用这类服务,必须拿到父母同意。服务方还得建未成年人模式,限定使用时长,定期弹出现实提醒。
我之前刷到过一个帖子,一个小姑娘说她跟AI男友聊了三个月,每天一睁眼就打开手机找他,跟真人朋友反而不怎么说话了。她妈妈发现后把软件卸了,她哭了一整天。她妈后来说了一句话,说女儿现在跟手机说话的时间比跟家里人说话的时间还多。
这种事以后会少一些吧。至少国家层面开始管了。
但我又想了一下,管是一回事,孩子愿不愿意听又是另一回事。你觉得一个14岁的孩子,家里管得住他不用手机吗?
这道题没有标准答案。

新规还给了用户一个权利:你可以要求复制或删除跟AI的聊天记录。
这条看起来不起眼,其实很关键。
你知道现在很多AI陪伴应用是怎么赚钱的吗?基础聊天免费,但解锁更高级的对话、更丰富的角色性格,要充值。有的按月收,有的按次收。
你充了钱,聊了几百条消息,然后有一天你想把这些聊天记录删掉。在以前,很多应用压根不提供这个选项。你的隐私数据就这么躺在人家服务器上。
现在新规说了,必须提供删除选项。
但我有个疑问。用户提供删除请求后,平台到底删没删?怎么监督?新规也提了合规审计,但我估计执行起来还有很长一段路要走。
实际上,现在很多互联网平台的删除功能都有猫腻。你以为删了,其实人家只是做了个标记,数据还躺在冷备份里。这条新规能不能真正落地,还得看后续的执法力度。
你最近有没有要求过某个平台删你的数据?删完之后你信它真的删了吗?

同一天,经济日报发了篇评论,标题很直白:AI炼化不可越过伦理红线。
说的是什么?有些公司把离职员工的工作数据喂给AI,训练出一个赛博分身,让这个AI分身继续在公司群里干活。
有人上午被裁,下午他的AI分身就在公司群里开始回消息了。
这事儿前阵子在GitHub上火过,有个开源项目叫同事.skill,专门干这事。收集员工的聊天记录、邮件、文档,提炼成标准化技能包,然后让AI来替代。
经济日报说这不可越过伦理红线。
我补充一点。按照4月10日这份新规,如果这个赛博分身属于拟人化互动服务,那它处理的数据就不能随便用于模型训练。但问题在于,企业内部用AI替代员工,到底算不算拟人化互动服务?这个灰色地带还很大。
你可以说它只是一个工具,也可以说它是一个冒充真人的数字替身。
边界在哪,目前没人说得清。
你觉得呢?如果你发现你被裁后,公司用你的工作数据训练了一个AI继续干你的活,你会怎么想?
参考:央广网、中国新闻网
夜雨聆风