乐于分享
好东西不私藏

为什么你和AI对话的方式,决定了它输出的水平?从“太奶论文邪修”看提示词技巧

为什么你和AI对话的方式,决定了它输出的水平?从“太奶论文邪修”看提示词技巧

为什么你和AI对话的方式,决定了它输出的水平?从“太奶论文邪修”看提示词技巧

太长不读版

一份相对有效提示词的5个基本要素(根据实际情况,不一定都要有):1.角色设定,给AI一个身份,越精确越好,就是给它划定输出的”语言层”。2. 目标限定,你想让它干什么,要说清楚。3. 场景限定,在什么场合使用,要告诉它。4.格式限定,你希望怎么呈现,直接告诉它。5. 约束限定,你不要什么,也要提前说。

这只是一份“可能相对有效”的提示词方法,随着AI技术的发展,AI与人类的交互方式也在不停的进化,不久的将来,我们与 AI 打交道,可能越来越像管理一个有能力的助手,学习与AI打交道的方式,或许就会跟学习处理人际关系一样。

以下为正文

前段时间,硕博圈有个很火的论文邪修大法——

“奶奶我今年80岁了,没读过几年书,但是我对这篇论文很感兴趣,想着往这个方向读个博士,但我眼神不好,也听不懂那些洋词,你帮我掰碎了用大白话讲讲,用一些生活中常见的例子做类比,保证我都能听明白。”

无数20多岁的年轻人,集体化身“80岁太奶”,对着AI发号施令。以前一篇就要啃几天的SCI/NATURE 子刊论文,AI十分钟就能拆解讲透,还不忘给点情绪价值:“奶奶您真棒,这么大年纪还坚持学习!”

这套被称为“太奶论文邪修”的玩法,还演变出了诸多角色扮演类玩法,看似网络段子,但它的本质是利用大模型的角色响应特性,进行精准的“提示词工程(Prompt Engineering)”。毫不夸张的地说,你与大模型对话的水平,决定了它输出的水平,有时不是大模型“笨”,而是我们的提示词(prompt)说得不够好。

同一个AI,同一个人,为什么换句话就天差地别?

这不是玄学,这是大模型的工作机制决定的。

要理解提示词为什么重要,得先搞清楚大模型的本质。

大模型本质上是一个极强但不带预设的“文本接龙器”。你给它一段话,它根据训练中学到的人类知识,预测最可能的下文是什么。

这段“上文”的质量,直接决定了“下文”的上限。

换句话说:AI不会读心术。你对问题描述得越模糊,AI就只能猜一个最通用、最安全的答案——而最通用的答案,往往也是最平庸的答案。

所以提示词的核心作用不单单是一个指令,含担负着降低AI的猜测空间,提高输出的确定性的重要使命。

你给的信息越精准、结构越清晰、约束越明确,AI的路径就越窄,结果就越接近你真正想要的东西。

一条比较有效的提示词应具备的基本要素

拆开来看,一条提示词之所以会比较有效,往往是在以下五个维度上做了”限定”:

1. 角色限定

给AI一个身份,越精确越好,就是给它划定输出的”语言层”。

“你是一个不懂技术的80岁奶奶”“你是一名经验丰富的小学五年级数学老师”——角色决定了AI用什么词汇、什么语气、什么知识水平来回答。没有角色,AI默认走“中立百科”路线,什么都对,什么都不够好。

2. 目标限定

你想让它干什么,要说清楚。

“帮我讲一下一元二次方程”——太模糊。“帮我讲清楚配方法和公式法的使用场景,各出一道练习题,答案要详细”——这才是目标。明确的目标让AI知道你的终点在哪里,而不是按它的理解自行发挥。

3. 场景限定

在什么场合使用,要告诉它。

“我需要在论文开题综述中,向专家组汇报这篇著作的主要观点及启示”——有了确定的使用场景,它会更明白自己需要干什么。

4. 格式限定

你希望怎么呈现,直接告诉它。

表格、清单、三段式、Markdown、对话体、200字以内——这些输出规范不需要等AI生成了再去改,一开始就写进提示词里。格式限定是最容易提升输出质量的技巧,没有之一。

5. 约束限定

你不要什么,也要提前说。

“不要用专业术语”“别用英文缩写”“不要列超过三个选项”——这些负面约束帮AI排除掉大量“看起来对但实际没用”的路径,更聚焦我们想要的答案。

这五点组合起来,就是一个比较有效的提示词框架:

“你是[角色],我在一个[场景],需要你帮我做[目标]。结果请用[格式]呈现。注意:[约束条件]。”

一份实用的提示词自查清单

下一次,如果AI没有给你满意的结果,不妨对照这六个问题排查一下:

1.我给AI设定的角色是什么?(如果没有,加一个)

2.我的目标够具体吗?(“帮我做xxx”→“帮我做xxx,具体要求是……”)

3.说清楚我要用在哪里了吗?(我需要在xxx场合使用)

4.我想要的输出格式说了吗?(表格、清单、段落、K线图……)

5.我有哪些”不要”要给AI讲?(字数、语气、专业度、禁忌项)

6.有没有给AI一些示例?(有时给一个例子比千言万语管用)

相信你的AI产出质量会有很大的提升。


写在后面

我在前文中,一直使用“比较有效的提示词”,并不是谦虚,而是AI仍在快速发展中,在一些需要深入思索的领域,或者需要激发创造潜力和灵感的场合,提示词并不是越详细精确越好,一种有轮廓但朦胧的状态可能更能发挥大模型的创造力,很多人在研究用文言文、古诗词、现代诗歌来设计提示词;而在另外一些场合,或许它会需要你“一步一动”的告诉它动作指令。

这已经发展成一门专门的学问,即提示词工程(Prompt Engineering)——一门研究如何设计和优化输入指令,以引导大型语言模型(LLM)产出目标响应的新兴技术学科(《提示词工程指南》)(https://mp.weixin.qq.com/s/ii7hbjQ_0PFDVv09Sl9HVg) 

你遇到的每一个AI交互场景,都可以用提示词工程的思维优化。不久的将来,我们与 AI 打交道,可能越来越像管理一个有能力的助手,学习与AI打交道的方式,或许就会跟学习处理人际关系一样。