文 | 机器迷途 | 2026年4月13日
4月10日,一份重磅文件悄悄发布。
国家网信办、教育部、公安部、文化和旅游部、国家广播电视总局五部门联合,发布了《人工智能拟人化互动服务管理暂行办法》。
这不是征求意见稿,这是正式办法。
核心禁令:不得向未成年人提供虚拟伴侣
办法中最引发讨论的一条:
不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务。
也就是说,如果你的AI产品允许未成年人创建一个"AI男/女朋友",或者"AI哥哥姐姐",那么——违法。
此外,向不满14周岁未成年人提供其他拟人化互动服务,需取得监护人同意。
什么是"拟人化互动服务"?
官方给出了定义:
利用人工智能技术,向公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务。
简单来说:只要你的AI产品具备以下特征——
- 有"人设"(性格、背景、外貌描述)
- 能进行持续的情感交流
- 模拟真实的社交互动体验
那就属于"拟人化互动服务",必须接受监管。
平台必须做的三件事
除了禁令,办法还要求平台:
- 显著提示用户:你在和AI聊天,不是真人
- 建立未成年人模式:提供定期现实提醒、安全设置选项
- 进行安全评估:每年对AI互动系统做合规审查
行业影响:AI陪聊赛道遭遇"急刹车"
近年,AI虚拟伴侣类产品在国内市场快速扩张:
- AI ChatGirl/Ai Boy类产品在应用商店下载量惊人
- 大模型公司提供底层能力,上层套壳应用大量涌现
- 未成年人使用比例不低,情感依赖问题引发社会担忧
新规一出,这些产品必须做出调整:
- 强制加入年龄验证机制
- 移除或限制未成年人的"虚拟亲密关系"功能
- 重新设计产品逻辑,未成年人模式成为标配
监管逻辑:保护,还是过度干预?
新规引发了两种截然不同的声音:
支持者认为:未成年人正处于价值观形成期,AI虚拟伴侣可能造成情感依赖、影响正常社交能力发展,监管势在必行。
质疑者认为:一刀切的禁令忽视了真实需求——对于孤独症患者、留守儿童、社交恐惧症人群,AI伴侣可能是重要的情感支持工具。
你怎么看?
监管的边界在哪里?欢迎留言讨论。
▲ 内容来源:国家网信办官网/腾讯新闻,机器迷途AI辅助整理写作
夜雨聆风