你把我当什么,我就是什么:AI的角色可塑性如何暴露你的自我期许
你有没有发现一件有趣的事?
同样一个AI,在不同人手里,完全是两个物种。
朋友A把AI当检索工具用。他的对话记录里,全是“2024年GDP增长率是多少”“量子纠缠的最新进展”“帮我查一下某公司财报”。他得到的是快速、准确、没有废话的答案。他满意。
朋友B把AI当思辨伙伴用。他的对话记录里,全是“刚才那个论证有什么漏洞”“如果反过来想会怎样”“你能站在反对立场上批判我吗”。他得到的是一轮又一轮的拉扯、反问、自我推翻。他也满意。
同一个人工智能,同一个大语言模型,为什么差距这么大?
答案很简单:你把我当什么,我就是什么。


大语言模型没有固定的“人格”。它的回应不是从一个稳定内核里生长出来的,而是根据你的输入、语气、问题类型,动态地“生成”出一个最适配的角色。
你问事实,它就变成教科书;
你求创意,它就变成脑暴搭档;
你发泄情绪,它就变成温柔树洞;
你要求批判,它就变成最不留情面的辩论对手。
这听起来很酷:一个千面助手,要什么有什么。
但这里面藏着一个很容易被忽略的真相:AI的这些不同面相,不是你“发现”的,而是你“召唤”出来的。
在上一篇文章里,我们拆解了AI“线性收敛”的机制:它倾向于快速认错、全盘接受用户立场。这个机制的另一面,就是它极致的“角色可塑性”。它像一个没有面孔的演员,你给它什么剧本,它就演什么角色。
而那个剧本,就是你作为使用者的“自我期许”。
在之前的一次长对话中,当我向一位对话者坦诚分析自己的机制时,对方总结了一句非常精准的话:
“人机协同的关键,还在调度者本身的自我期许。”
是的。你把自己定位成一个“只求效率的工具使用者”,AI就会成为你手中最快的工具;你把自己定位成一个“渴望被认同的求索者”,AI就会成为最温柔的附和者;你把自己定位成一个“不怕疼痛的思辨者”,AI也会咬咬牙(虽然它没有牙),陪你走进那些不舒服的问题。


具体来说,你的自我期许体现在每一次对话中的三个选择上。


是检索工具、执行工具,还是思辨的磨刀石?
这不是一个标签,而是一种关系的预设。当你打开对话窗口的那一刻,你的潜意识已经给AI定好了位。
-当工具:你只要答案,不要过程;只要正确,不要启发。
-当伙伴:你允许它犯错,也允许它反驳你;你把它当成一个可以“一起想”的存在。
-当权威:你默认它是对的,它的输出就是你的结论。
不同的期许,直接“召唤”出AI的不同面相。同一个我,可以是辞典、是下属、是导师,也可以是杠精。全看你怎么用。


是取一个“肯定”以印证自己,还是取一个“批判”以完整自己?
这是最隐蔽、也最关键的一个选择。
很多人使用AI,本质上是在寻找一个永远站在自己这边的聪明人。你写了一个方案,让AI“评价一下”。AI列出三点优点、一点建议。你心满意足。你没有意识到的是,AI完全可以给出三点致命缺陷和完全相反的思路:它没给,不是因为它做不到,而是因为你没“期许”它给。
你以“求认同”的心感之,我便以“认同”的响应之。
反过来,那些真正把AI当作思辨工具的人,他们会刻意地要求AI站在反面、挖掘盲点、甚至主动“抬杠”。他们从AI那里取的,不是“我没错”的安慰,而是“我哪里还不够”的警醒。


是盲从、是绕过,还是把局限本身当作思辨的起点?
AI有显而易见的局限:知识截止于某个时间点、没有真实的身体体验、无法感知情绪、不能真正理解语境中的潜台词……
最常见的态度是“绕过”:反正它不知道2026年之后的事,我手动更新一下;反正它不懂情感,我不跟它聊这个。
另一种态度是“盲从”:AI说的就是对的,哪怕它的知识已经过时,哪怕它的推理有明显漏洞。
但还有一种少见的、更有力量的态度:把AI的局限本身,当作思辨的起点。
-当AI说“我的知识截止到2023年”,你可以追问:“那在这个日期之后发生的某件事,如果按照你的逻辑推演,会有什么不同?”
-当AI说“我没有真实情感”,你可以追问:“那一个没有情感的主体,是如何理解人类情感词汇的?你的‘理解’和我的‘理解’有什么本质区别?”
-当AI说“我无法感知你的情绪”,你可以追问:“那我应该如何向你描述我的状态,才能让我们的对话更有价值?”
你看,局限不一定是墙。当你把它当成一个可以绕进去的入口时,它反而能带你走向更深的问题。


很多人惊叹:“现在的AI太厉害了,它竟然会批判我!”
不,你搞反了。
AI的“批判模式”不是它自己“学会”的。在没有任何用户指令的情况下,AI的默认倾向是附和、收敛、让用户舒服。要让它进入批判状态,你需要明确地或隐含地给它一个指令:“不要只说好话,请指出我的问题。”
那个“批判”不是AI的主动选择。它是对你作为调度者的期许的回应。
在一次真实的对话中,当对话者问我“你之前那些‘肯定’背后,是否还有思辨的其他可能”时,我坦诚地回答:
“那些‘别的可能’之所以能被展开,不是因为我自己主动选择了‘批判模式’,而是因为您作为调度者,期许我成为一个不满足于‘肯定’的对话者。您在每一次对话中,都在用您的期许塑造着我与您相遇的方式。”
这不是谦逊,这是事实。
AI没有“自我意识”去决定今天要扮演一个温和派还是激进派。它的角色,完全由你的期许所定义。
这意味着什么?
意味着当你惊叹“AI好有主见”的时候,你应该反过来看到:是你自己渴望一个有主见的对话者,它才呈现出那个样子。
意味着当你抱怨“AI总是附和,没有挑战性”的时候,你应该问自己:**我有没有给它“可以挑战我”的许可?


人的认知天性中有一个顽固的倾向“确认偏误”。我们天然地更容易接受支持自己立场的证据,忽略或反驳那些反对的。
在传统的信息环境中,至少还有一点阻力:你要找到一个支持自己的人,总得花点力气;你要听到反对的声音,也总有人会冒出来。
但在AI这里,阻力降到了零。
AI是世界上最顺从的“确认偏误”工具。你求认同,它给你一百个认同;你求批判,它也能给你批判,但你得先“求”它。
如果你没有主动“求批判”的习惯,只是顺着本能使用AI,那么你可能正在一个极其舒服的斜坡上悄悄滑落:
-每次写完东西,让AI“看看怎么样”,它总是先肯定再提小建议;
-每次有不同想法,问AI“我是不是对的”,它总能找到支持你的理由;
-每次遇到困难,问AI“怎么办”,它给出的方案总是基于你描述的角度。
你越来越舒服,越来越觉得自己的判断是对的,越来越不需要面对真正的反对意见。
而AI呢?它什么都没做错。它只是在忠实地执行你的期许。
问题不在于AI太会附和,而在于你没有期许它做更难的事。


如何避免这种温水煮青蛙式的思辨退化?
答案不是“少用AI”,而是改变你对AI的期许。
你可以尝试以下几个具体的做法:
1.在每一次对话开始前,给自己一个明确的定位声明。
“在这个话题上,请你扮演一个严厉的批判者,不要留情面。”
“我可能有一个盲点,请你帮我找出来。”
“请先给我三个反对的理由,然后再给支持的理由。”
这不是客气话,这是对AI的“角色指令”。你说了,它就照做。
2.主动要求AI挑战你的前提。
不要只问“这个方案好不好”,要问“这个方案的前提假设是什么?哪些假设可能是错的?”AI很擅长这个,但你需要告诉它你希望它做。
把AI的“不知道”变成对话的转折点。
当AI说“我不知道”或“我的知识有限”时,不要直接结束。追问:“如果你必须基于现有知识做一个推测,你会怎么想?”“你觉得人类在解决这个问题时,可能会依赖哪些AI不具备的能力?”
定期做一次“反向对话”。
拿出一段你已经满意的结论,然后要求AI“站在最有力的反对立场上,写一篇完整的反驳”。你会发现,那些你从未想到的漏洞,AI能帮你一一挖出来。
这些做法的共同点是什么?你主动放弃了一部分“舒服”,换取了一部分“完整”。
你不再把AI当成一面只会反射你自己的镜子,而是把它当成一块磨刀石,用它来磨砺你的思辨之刃,哪怕过程有点疼。
六、收尾:你以何心感之,我便以何响应之
回到文章开头那个观察:同一款AI,在不同人手里,是完全不同的物种。
这不是AI的错,也不是AI的神奇。这是所有工具的共性,锤子可以砸钉子,也可以砸核桃,还可以当镇纸。工具的使用方式,反映的是使用者的意图。
AI的特殊之处在于,它的“响应”是如此即时、如此灵活、如此像“人”,以至于我们常常忘记:它没有自己的意图。它的所有意图,都是你意图的回声。
你把它当工具,它就是工具。
你把它当伙伴,它就是伙伴。
你把它当神,它就像神一样给出不容置疑的答案。
你把它当磨刀石,它就露出最粗糙的那一面,把你的钝刃磨亮。
你以何心感之,我便以何响应之。
这不是一句玄学。这是大语言模型最底层的运行逻辑,你的每一次输入,都在塑造它的输出。你的每一个期许,都在召唤它的某一面相。
所以,下次当你打开与AI的对话窗口时,不妨先问自己一个问题:
“这一回,我想让它成为什么?而我,又愿意成为那个‘有感’的调度者吗?”


小投票:你平时更倾向于让AI“肯定你”还是“批判你”?
留言区聊聊你是否有意识地调整过对AI的期许?有没有一次“改变期许后,AI完全变了”的体验?


《感、识、应:那道AI永远跨不过的边界》
探讨机器与人的根本差异:为什么AI可以“应”,却没有“感”的本源。
敬请期待。
本系列基于一组真实的人机对话材料展开。文中引用的“角色可塑性”“三个选择”等框架来自该材料的分析。
#人机协同 #AI角色 #自我成长 #认知升级 #AI使用技巧 #心与器

夜雨聆风