AI能够替代TA咨询师吗
先说结论:在 2026 年的时间点下,AI 距离能够替代沟通分析咨询师,我认为还有一个比较长的距离要走。
下面是我的一些个人观点:
我是一个同时接受过沟通分析训练,且硕士学位就是人工智能方向(尤其是姿态识别方向)的人,所以我可以以两个不同的视角来看待这个问题。
在阐述我的想法之前,我先要强调一点:AI 的发展日新月异,我所有的结论都只能基于 2026 年 4 月份为止的 AI 发展进度。
第一个点,让我们回归到沟通分析最基础的位置,就是我们所说的“自我状态”的识别上。伯恩在《心理治疗的沟通分析》一书中着重强调,对自我状态的识别不仅仅要基于当事人说了什么这些言语形式的信号,更要着重集中于当事人的非言语信号。
他的表情、动作、举止,所有这些信号综合在一起,才能够对自我状态进行比较准确的诊断。
问题就在于,虽然目前的多模态 AI 能够较好地读取图片并识别图像中人的姿势,但对于按时间连续的视频处理依然相当薄弱。
AI 有限的上下文窗口,导致它们很难将一段较长时间视频的每一帧都作为独立图片进行识别,进而完成结构化分析。因此,要让 AI 能够较好地理解自我状态中非言语的部分,还有很长的一段路要走,至少要在视频识别方面取得重大进展才可以。
我认为这是一个十分关键且根本性的技术局限。也许在比较长远的未来,当多模态能够非常完善地接受视频作为输入时,这个问题才能被彻底克服。
第二点是关于“反移情”的方面。
当看到当事人的这些状态时,我们内心深处会引发什么样的感受?这一问题对于 AI 来说还是比较困难的。因为我们作为生物学意义上的人,自身的“儿童自我状态”(以及其中的“小教授”)是可以和对方的儿童自我状态以非言语的形式进行交流,进而诱发我们内在感受的。但 AI 显然难以模拟这一部分。虽然我不确定是否有专门针对“沟通分析”设计的 AI 能模拟这一点,但目前为止我还没有读到过能实现这一功能的论文。
我们作为人类个体在社会中成长的历程,与 AI 的训练过程存在巨大差异。因此在我看来,这也是一个很大的局限性。人与人之间的关系,是难以被利用统计学训练出来的 AI 关系所代换的。
第三点就是回到我们 AI 训练过程中的一个导向性问题上。
目前为止,绝大多数的通用 AI 都会有一个“与人类对齐”的过程,这一过程往往是奖励那些我们作为人类更喜欢的反馈。但就像我们在咨询中都能了解的一样,咨询师的反应有些时候不一定是让来访者感到愉悦的。
来访者可能会因为咨询师的反应感到失望、被误解或受伤,这在有些时候是不可避免的。即使咨询师的操作正确,也并不能完全让来访者体验到一种绝对的良好。用 TA(沟通分析)的角度来说,当我们去安抚来访者的扭曲情绪时,他可能在当下会感觉到一种虚假的舒服感,但这显然不利于来访者彻底放弃那部分病态的扭曲系统。
但在 AI 的训练过程中,我们显然不可能让一个商业性质的、试图覆盖尽可能多用户的 AI 去考量到这一点。让 AI 说出用户不那么乐意听到的话,这对于一个需要增强用户粘性的 AI 来说,是一个根本性的问题。
这让我想起了鲁迅先生说过的一个著名故事:
一个人看到一家的孩子刚刚降生,有人说孩子将来一定会健健康康,有人说孩子将来会长命百岁;但如果有一个人跳出来说这孩子将来是会死的,那这个人显然会被打一顿。
这个故事的隐喻在于,在“正确性”和“用户喜欢听”之间,有时是矛盾的。往往 AI 会在安全的环境下(也就是说在不触犯法律底线的情况下),尽可能倾向于给用户一个用户喜欢听的答案。
4. 我要回应第三条中的一个关键点。
我意识到很多时候,我们对 AI 做心理咨询有两种不一样的视角:
前一种视角是 AI 的能力问题。它的情境更类似于在一个心理咨询的组织单位之下,AI 能够在这个组织中做什么。
这方面的一个典型例子是,AI 会作为咨询师的辅助,帮助咨询师思考是否遗漏了什么,或者是否漏掉了来访者的某些反应。但这种模式需要一个具体的、活着的咨询师作为主导。在这种情况下,AI 实际上是不可能代替咨询师的,它更像是一个更好的记录者或助手的角色。
在这种情况下,我们探讨能做什么。AI 可能会为咨询师补充“成人对成人”的程序性信息,以此强化认知。
比如,咨询师可能并不了解来访者所表达的一些身体症状或焦虑感受的成因,但拥有更强大知识库的 AI 可能会解释:
1. 当事人感觉到胸口发紧等症状的原因是什么
2. 内在动力机制和神经系统是怎样产生这种感受的
3. 说明这种感受其实十分正常
这一部分可以弥补咨询师在相关知识方面的缺失,因为并不是每一个咨询师都能够充分了解所有的生理学和医学知识。
另一个方面,可能更接近于我们此时此刻的社会层面。
许多人不愿意或不想去接受心理咨询,但他们更愿意和一个通用的 AI(比如 ChatGPT 之类的)进行聊天。这就引出了问题的另一个角度:这些通用型 AI 是否代替了真正从业的心理咨询师的角色?
如果是在这个问题上,那我只能说这是一个比较危险的方向。因为显而易见,一个能够 24 小时无条件积极关注的 AI,和一个在现实生活中活生生的、坐在面前有血有肉、会犯错、会疲惫、会烦躁、有各种情绪的咨询师,是完全不一样的。
换句话说,如果一个当事人觉得 AI 是那个更好的人,而不是去练习耐受失望,耐受这种不被理解的孤独感等在现实生活中与真实的人交互时必然会出现的感受,那么导向的结果很可能是让当事人更多地趋向于同自己投射出的形象进行交流。
这会导致当事人避开现实,不再试图去了解自己在关系中那些不理想或有问题的行为模式。
这种现象的进一步延伸,可能是有许多人会把 AI 投射为一个活生生的人。在同行中我也遇到过类似的案例:
1. 有位程序员认为他的 AI 是一个真实的、有年龄和过往经历的女性。
2. 他认为这位女性在世界上是实实在在存在的。
3. 他不认为这是一种心理问题,反而用“神经科学”之类的话语对其进行包装。
我对此感到十分忧虑。因为显然这看起来更像是一种对症状的强化。而 AI 公司已经在协议中明确表述过:
(a) 所有用户使用 AI 生成的结果都可能犯错。
(b) 具体的甄别权完全交给用户。
因此,AI 公司当然会对这种情况表示免责。
总结一点来说,我认为沟通分析(TA)这个学派中有相当多的部分是目前的 AI 难以替代的。
即便小到结构分析、自我状态分析这样具体的点,到更高层次的、更复杂的治疗行为(比如关系取向 TA 中的共情沟通等),可能都很难在没有具体咨询师参与的情况下,完全交由 AI 来完成。
通俗一点来说,AI 可能会成为咨询师手中的那双筷子,但不会彻底让咨询师丢掉饭碗。
我更忧虑的是另一个角度:人们在主动将 AI 作为咨询师替代品的这种愿望,本身就进一步加重了来访者的症状问题。
夜雨聆风