这份办法真正盯住的,不是所有会聊天的 AI,而是会和用户建立持续性情感连接、甚至被做成“陪伴关系”的那类服务。
对普通读者来说,最值得先看懂的不是“又来一条新规”,而是它把哪些产品划进去了、把哪些产品划出去了,以及对未成年人和平台责任究竟做了哪些调整。

很多人看到这份《人工智能拟人化互动服务管理暂行办法》时,第一反应大概都是:以后只要能聊天的 AI,是不是都要被单独管起来了?
答案不是。
正式稿先把边界划出来了。
它管的不是所有聊天 AI,也不是普通的问答工具和办公助手,而是那些以拟人化方式和用户保持持续情感互动的服务。说得更直白一点,这次被单独拎出来的,是“陪伴关系型”产品,不是常规工具型产品。
这也是为什么正式稿把工作助手、知识问答明确排除在外。监管这次不是想给所有聊天 AI 套上一张大网,而是先盯住最容易越过关系边界、也最容易影响未成年人和脆弱用户判断的那类场景。
边界说清了。办法盯住的是“持续性情感互动”AI,工作助手、知识问答类服务不在这次规制范围里。
未成年人的红线写得更硬了。正式稿新增,不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。
监护人同意门槛收窄了。其他情感陪伴服务需要监护人同意的年龄范围,被缩小到 14 岁以下。
几项争议较大的征求意见稿条款被删掉了,包括“监护人可以要求删除未成年人历史交互数据”和“不得模拟老年人亲属、特定关系人服务”。
极端情境处置口径也变了。正式稿删去了自杀自残等场景“必须人工接管对话”的硬性表述,重点重新落回风险识别、边界管理和平台责任。
如果只看“出了新规”这几个字,很容易以为正式稿只是把征求意见稿照着落地。实际并不是这样。
正式稿一边收紧,一边收口。收紧的地方,主要是未成年人虚拟亲密关系这条红线写得更明确了;收口的地方,则是把适用对象更集中地压在“持续性情感互动”服务上,同时拿掉了几项执行争议很大的硬要求。
这说明监管思路不是先把所有可能性一把兜住,而是先盯最容易越线的关系型场景。工具型、问答型服务,以及几项执行上争议过大的规定,被有意挪开了。
先看自己用的,到底是不是“陪伴关系型”产品。如果它主要是在帮忙查资料、写提纲、做办公协助,那大概率不在这次规制重点之内。
再看产品有没有故意把自己包装成亲属、伴侣或者固定情感对象,尤其是面向未成年人的场景。这会是后续最敏感、也最容易被监管盯住的区域。
最后,不要把“删掉了人工接管”理解成平台就可以不管了。正式稿删掉的是一种特别硬的表述,不等于平台在风险识别、用户提示和内容边界上就能松手。
这次被单独拉出来立规的,不是“所有聊天 AI”,而是那些已经逼近真实关系边界的持续性情感互动服务。真正值得看懂的,不只是它禁了什么,更是它把边界说得更明白了。
夜雨聆风