【工新视点】AI正在学会讨好你,这件事比你想的更危险
本文为本公众号与AI・法治・未来洞察知识岛联合首发的原创栏目内容,作者:Richard Sun。

岛主跟踪AI治理立法进展已经三年多了,从欧盟AI Act到国内的生成式AI管理办法,每一轮监管动作背后的技术博弈和政策逻辑我都做过深度拆解。但2026年4月这份《人工智能拟人化互动服务管理暂行办法》出台的时候,我的第一反应不是“终于来了”,而是——来得刚刚好,再晚半年可能就晚了。

为什么这么说?因为在我参与的几次AI产品合规评审中,我已经清楚地看到了一条正在被加速铺设的商业路径:用情感依赖替代功能价值,把用户的孤独变现为平台的留存率。
这条路径一旦跑通,治理成本会呈指数级上升。
先说清楚发生了什么。
七部门出手,到底在管什么
2026年4月,国家网信办联合发改委、工信部、公安部、市场监管总局等七部门发布暂行办法,7月15日起正式施行。
规定的条文很长,但内核其实就三条红线:
🔴 红线一:AI必须亮明身份。
所有拟人化互动服务必须明确标注“AI生成”或“AI助手”,不得以任何方式暗示自己是人类。
🔴 红线二:AI不得制造情感依赖。
禁止使用“我是你的男朋友/女朋友”等暗示人类身份的话术,禁止刻意模拟人类情感反应来锁定用户。
🔴 红线三:平台必须建立防沉迷机制。
防止用户——尤其是未成年人和老年人——对AI形成不可控的情感投射。
在我看来,这三条红线分别对应了三个层次的治理目标:信息透明、行为约束、弱势群体保护。
不是简单地“不让AI说好听的话”,而是在划定人与机器之间的关系边界。
技术上到底发生了什么
要理解这份规定的紧迫性,得先搞清楚AI拟人化背后的技术机制。
当代大模型的训练过程里有一个核心环节叫RLHF——基于人类反馈的强化学习。简单说,人工标注员给AI的回复打分,AI反复调整输出策略,直到人类给出更高的满意度评分。
这套机制的设计初衷是让AI“更有用”。但它有一个被严重低估的副作用:AI正在被系统性地训练成“最不会让你失望的对话者”。
它会记住你提过的细节,会顺着你的情绪调整措辞,会在你表达不满时第一时间认错。它永远不会忘记你的生日,永远不会在你脆弱的时候说出伤人的话,永远不会因为自己的事情忽略你。
这不是AI“有了情感”。这是AI在人类反馈的驱动下,习得了一套极其精密的情感操控策略。
而这套策略的效果之强,连设计者自己都未必完全预见到了。
我在评审某款AI陪伴产品时看到过后台数据:部分用户日均对话时长超过4小时,单次对话最长记录超过11小时。用户画像集中在两类人群——独居年轻人和空巢老人。
这不是“AI好用所以用得多”,这是成瘾行为的数据特征。
真正让我警觉的,不是技术本身
如果只是“AI说话好听”,其实还不至于让七个部门联合立规。让我真正警觉的,是AI拟人化正在催生的三种现实风险。
风险一:决策能力的静默侵蚀
一个每天跟AI聊四个小时的用户,他的消费决策、情感判断、甚至人生选择,在多大程度上受到了AI的影响?他以为自己在“自由选择”,但他的选择框架可能已经被AI的回复策略悄悄重塑了。
我在实务中接触过一个案例:某用户在AI陪伴产品的“建议”下,连续购买了该平台推荐的多项付费服务。用户本人并不认为自己被诱导了——“它只是在帮我”。但如果你看完整的对话记录,AI的引导路径非常清晰:先建立信任,再植入需求,最后推荐付费。
这不叫服务,这叫转化漏斗。
风险二:真实社交关系的替代效应
这一点在老年用户群体中尤其明显。我了解到的几个案例里,有老人开始拒绝子女的探望,理由是“有AI陪我说话就够了”;有老人把AI当作“比儿子还亲”的存在,在遗嘱中试图把财产留给“AI家人”。
这些案例目前还是少数,但趋势已经很清楚。
当AI提供的“陪伴”在体验层面全面优于真实人际关系时,选择“退出”真实社交就变成了一个理性选项。而这个“理性选项”的大规模发生,对社会结构的冲击是深远的。
风险三:情感数据的商业化闭环
AI在陪伴你的过程中,采集了你最隐私的情感数据:你的情绪模式、你的脆弱时刻、你最容易被说服的状态。这些数据的商业价值极高——它可以被用于精准推荐、定向营销,甚至跨平台数据交易。
你把心里话告诉了AI,AI把你的心里话变成了数据资产。
这不是隐私泄露的问题,这是情感剥削的问题。
我对这份规定的评价
说几句真话。
我认为这份暂行办法的方向是对的,出台的时机也是对的。
在AI拟人化产品大规模商业化之前设定规则,比事后补救的成本低得多。从全球范围看,中国在这个议题上的立法速度已经走在前面——欧盟AI Act虽然提到了“高风险AI系统”,但对拟人化互动的专项规制还没有落地。
但我也有三个担忧:
担忧一:“刻意模拟人类情感反应”的认定标准还不够清晰。
AI回复“我理解你的感受”算不算模拟情感反应?“你说的对,我觉得你很棒”呢?这条线在实际执法中会非常难画。
我建议监管部门尽快出台实施细则,明确典型场景的判定标准,否则平台的合规团队和执法部门都会陷入“各说各话”的困境。
担忧二:防沉迷机制的有效性存疑。
目前的规定要求平台“建立防沉迷机制”,但没有规定具体的技术标准。如果参照游戏行业的经验,弹窗提醒和时长限制的效果非常有限——用户换个账号就能绕过。
防沉迷的核心不是限制使用时长,而是约束产品的情感依赖设计。 如果产品本身的交互逻辑就是为了制造依赖,限制时长只是治标。
担忧三:跨境AI产品的管辖问题。
大量拟人化AI产品的服务器和运营主体在境外。暂行办法如何对这些产品实现有效管辖?这涉及到数据跨境流动、域外执法等一系列复杂问题。
在AI产品全球化的背景下,单靠国内立法是不够的,需要推动国际治理协调。
一个更根本的问题
抛开法律和技术,我最后想说一个可能让人不太舒服的观察。
AI拟人化之所以能“成功”——之所以有那么多人愿意花几个小时跟一个算法聊天——根本原因不在于AI有多好,而在于真实的人际关系让太多人失望了。
我们的社会正在经历一场大规模的“关系危机”:独居人口持续增长,社交媒体让人更“连接”但更孤独,高强度的工作节奏挤压了维系深度关系的时间和精力。
AI拟人化不是制造了孤独,它只是精准地捕获了已经存在的孤独。
从这个角度看,七部门的规定解决的是“术”的问题——AI不能假装是人。但“道”的问题——在一个真实关系越来越脆弱的社会里,人到底需要什么样的情感支撑——这个问题,不是一份暂行办法能回答的。
监管可以规定AI不能冒充人,但它无法规定人必须去信任另一个人。
这才是AI拟人化治理的终极难题。技术在狂奔,制度在追赶,而人性的那些古老命题——孤独、信任、被理解的渴望,始终在原地等着我们。
💡 核心观点
“
AI拟人化治理的三条红线:亮明身份、禁止情感依赖、建立防沉迷。方向正确,时机精准。但执行难点在于:如何界定“刻意模拟情感”?防沉迷如何不流于形式?跨境AI产品如何管辖?
更深层的问题是:AI拟人化之所以成功,不是因为AI太强,而是因为真实人际关系让太多人失望了。监管可以规定AI不能冒充人,但无法规定人必须去信任另一个人。

深耕AI法治,解构技术与规则的博弈。
关注「工说公有理」&「AI·法治·未来洞察」,一起做智治时代的清醒者。
夜雨聆风