你跟一个AI产品聊工作方案,它温柔体贴,像一个耐心的伙伴。
你让它分析数据,突然变得冷冰冰,全是术语,像换了一个人。
你问它一个做不了的事,它突然变得卑微,"非常抱歉给您带来不便"。
三个场景,三种人格。你觉得在跟谁聊?
不知道。
这就是AI产品最容易犯的错——人格精分。
语气一致≠ 人格一致
之前我们聊过,AI产品的语气决定了用户会不会再来。
但语气只是单次对话里的事。
人格是所有对话加在一起,用户对你形成的整体印象。
一次对话的语气对了,用户觉得舒服。
十次对话的人格乱了,用户觉得不对劲。
他说不出哪里不对,但就是觉得:这个AI怪怪的。
像一个同事,上午开会温柔,下午发邮件冷漠,晚上聊天突然很油腻。
你不会觉得他"多面",你只会觉得他"不可靠"。
传统产品的一致性靠什么?
Logo用同一个。
配色用同一套。
文案用同一种语气。
按钮圆角统一,间距统一,字号统一。
整套视觉系统加起来,就是品牌一致性。
用户不需要看名字就知道这是谁家的产品。
这件事传统产品做了二十年,有设计规范、有品牌手册、有审核流程。
但AI产品呢?
没有固定界面,没有固定按钮,没有固定文案。
每一次对话都是动态生成的。
用户看到的每一句话,都是实时产出的。
你没法提前审核每一句回答。
所以AI产品的一致性,不能靠视觉,只能靠人格。
人格精分是怎么发生的?
通常有三个原因。
第一,不同场景用了不同的prompt。
客服场景的prompt写着"请用温柔的语气"。
数据分析场景的prompt写着"请用专业简洁的语气"。
写作辅助场景的prompt写着"请用活泼有趣的语气"。
每个场景的产品经理各写各的,没人统一。
结果用户在同一个产品里遇到了三个完全不同的"人"。
第二,边界场景没有设计。
正常对话有人格设计,但遇到做不到的事、敏感话题、用户发火的时候呢?
大部分产品没有专门设计这些场景的人格。
于是AI在边界场景里回退到了默认模式——那种生硬的、官方的、机器感十足的回答。
平时像朋友,出事像客服。这落差太大了。
第三,多模型混用。
有些产品在不同场景调用不同的模型。
简单问题用小模型,复杂问题用大模型。
不同模型的默认语气不一样,回答风格也不一样。
用户感知到的就是:有时候聪明有时候笨,有时候话多有时候话少。
不是能力波动的问题,是人格不统一的问题。
怎么做到人格一致?
核心就一件事:
先定义"这个AI是谁"。
不是定义它的功能,是定义它的性格。
它是什么态度?遇到困难怎么反应?开心的时候怎么表达?拒绝的时候怎么说?
写下来。
不是一句"友好专业"就完了。
要具体到:
"它像一个工作三年的同事,靠谱但不端着。"
"遇到不会的事,会坦诚地说'这个我不太确定',但一定会给一个备选方案。"
"不管用户问什么场景的问题,它的态度始终是平等对话,不仰视也不俯视。"
这些描述越具体,不同场景的prompt写出来才能越统一。
一个检验方法
把你的AI产品在五个不同场景下的回答截图,放在一起看。
写方案的回答、分析数据的回答、闲聊的回答、被质疑时的回答、做不到时的回答。
五张截图放在一起,遮掉场景信息。
能不能看出来这是同一个"人"说的?
如果能,人格是统一的。
如果不能,你的AI产品在精分。
为什么这件事比想象中重要?
因为用户对AI产品的信任,本质上就是对一个"人"的信任。
传统产品,用户信任的是品牌、是界面、是流程的确定性。
AI产品,用户信任的是"这个AI"本身。
它的能力、它的态度、它的一致性——加在一起就是信任。
能力可以慢慢提升,态度可以调整优化。
但一致性一旦崩了,信任就回不来了。
用户不会说"它在数据分析场景下变了个人"。
他只会说"这个AI不靠谱"。
然后他就不来了。
最后一句话
功能可以分场景,能力可以分层级。
但人格只能有一个。用户记住的不是你能干什么,是你是谁。
夜雨聆风