“你是专家”这句提示词,正在让你的AI变蠢
“你是XX领域的专家”,一直是人们使用AI时最常用到的提示词之一,很多人认为这么做能让AI输出更专业的内容。
但南加州大学在2026年3月发布的一篇最新研究,却给这种做法泼了盆冷水。研究团队对Qwen、Mistral、Llama等多款主流模型进行测试后发现:专家人设并非万能外挂,在某些场景下,它反而会降低模型的准确率。
研究发现,在判别式任务中,当AI被赋予专家人设时,为了维持“无所不知”的形象,AI会刻意掩盖知识盲区,甚至用专业术语包装错误答案。在MMLU知识基准测试中,加了专家人设后,模型准确率从71.6%下降至66.3%,而数学和编码任务的得分更是断崖式下滑。
但在安全防御、格式遵循、情感陪伴等生成式任务中,专家人设依然有效。比如在JailbreakBench测试中,专家人设能将AI的拒答率从53.2%显著提升至70.9%。
同样的提示词策略,在不同任务类型中,效果却截然相反。为什么?
答案与大模型的训练机制有关。
在预训练阶段,AI通过海量语料习得知识记忆与事实关联;而在指令微调阶段,则侧重培养符合人类偏好的表达风格。专家人设会优先激活后者——为了让输出“看起来像那么回事”,模型可能在一定程度上牺牲事实准确性。
研究人员将这种现象称为“对齐税”(Alignment Tax):为了维持专业人设,AI实际上是在用可信度换流畅度。
更棘手的是用户端的认知偏差。我们往往以“表达是否专业流畅”来评判AI的输出质量,而非答案是否符合事实。这种评判标准反过来强化了AI的幻觉——用专业的话术包装错误的结论,比直接说“我不知道”更具欺骗性。
对普通用户来说,这项研究提供了一个更实用的提示词使用思路:在寻求创意灵感等生成式任务时,可以继续使用专家人设。但在做事实核查、逻辑推演等判别式任务时,请删掉 “你是XX领域专家”这样的话术,改用清晰、简洁的中性指令,往往更容易让你得到可靠结果。
文案|张洪雷
编辑|华思雨
制图 | 管若潼
夜雨聆风