吴恩达AI提示工程指南
在AI时代,提示工程是每一个想要用好LLM的人的必备核心能力。
一、提示词核心指引:两大黄金原则
原则一:编写清晰且具体的指令
模糊笼统的指令只会得到差强人意的结果,清晰具体的指令才能让模型精准匹配你的需求。这里有4个可直接复用的实现策略:
1. 使用分隔符明确输入边界
用三重反引号“`、XML标签、章节标题等分隔符,清晰区分指令、上下文、待处理内容,避免提示词注入与内容混淆。
2. 要求结构化输出
明确指定输出为JSON、HTML、Markdown等格式,大幅降低后续内容处理的成本,尤其适合开发者场景。
3. 要求模型先校验条件再执行
让模型先判断输入是否满足任务的前提条件,不满足时直接告知原因,避免无效输出与错误结果。
4. 少样本提示(Few-shot)
给模型提供1-3个完成任务的优秀示例,让模型模仿示例的风格、逻辑、格式完成你的需求,效果远超纯指令。
原则二:给模型“思考的时间”
复杂任务中,不要让模型直接给出结论,而是通过拆解步骤、引导推理,让模型先完成思考过程,再输出结果,大幅降低错误率。核心策略有2个:
1. 明确指定任务完成的步骤
把复杂任务拆解成多个连续的子步骤,让模型按顺序执行,避免跳步出错。
2. 让模型先自主推理,再对比验证
对于有标准答案的推理类任务,不要让模型直接判断对错,而是让它先自己完成解题,再和给定结果对比,得出结论。
重要提醒:模型的局限性
LLM最核心的问题是幻觉——会编造听起来非常可信、但实际并不正确的信息。
减少幻觉的核心方法:让模型基于你提供的参考文本回答问题,而非凭空生成;若模型输出不确定的内容,要求它标注信息来源。
二、迭代:提示词优化的核心流程
没有任何一条 提 示词能一次 就达到完美效果,优秀的提示词,和代码开发一样,需要经过反复的迭代优化。
提示词迭代开发闭环
分析结果不达预期的核心原因:是指令不够清晰?还是缺少上下文?或是任务拆解不够细?
重复测试-分析-优化的循环,直到提示词效果稳定符合预期
迭代优化的核心技巧
每次迭代只修改1-2个核心变量,快速定位影响效果的关键因素
优先解决大的方向性问题,再优化细节格式、语气等次要问题
三、总结:高效提炼文本核心价值
文本总结是LLM最高频的应用场景之一,无论是电商评论、用户反馈、长文档、行业报告,都能通过提示词快速提炼核心信息。
1. 精准控制总结长度
通过“不超过XX字/XX句话”“XX个要点”的明确要求,适配不同场景的篇幅需求。
示例:请用3句话总结以下产品评论,每句话不超过20字。
2. 聚焦特定维度
让模型只提取你关心的维度,避免无关信息干扰,比如电商场景聚焦价格、物流、产品质量,用户反馈场景聚焦痛点、需求、建议。
示例:请总结以下用户评论中,关于产品续航能力的相关内容,不超过50字。
3. 批量处理标准化输出
通过固定的格式模板,实现多条文本的批量总结,比如把100条用户评论,批量总结成“核心痛点+好评点+改进建议”的标准化表格。
四、推断:挖掘文本背后的隐藏信息
推断任务,是让LLM超越简单的文本处理,去理解文本的深层含义,完成情感分析、主题提取、分类、意图识别等任务,无需传统机器学习的标注与训练,一条提示词就能实现。
1. 情感分析
快速判断文本的情感倾向,甚至精准提取情绪的细分类型。
示例:请判断以下用户评论的情感倾向,输出仅为“积极/消极/中性”,无需额外内容。
2. 信息提取
从非结构化文本中,精准提取你需要的特定信息,比如人名、地名、时间、事件、联系方式等。
3. 主题分类与标签
给文本打上对应的分类标签,适配内容管理、舆情监控、用户分层等场景。
示例:请给以下新闻内容打上不超过3个主题标签,标签从【科技、财经、体育、娱乐、民生】中选择。
4. 意图识别
精准判断用户输入的核心意图,适配客服、智能助手、私域运营等场景,比如区分用户是咨询、投诉、下单还是售后需求。
五、转换:实现文本的多维度改写
文本转换,是利用LLM的语言能力,实现文本的跨格式、跨语言、跨风格转换,覆盖翻译、格式改写、语气调整、语法纠错、代码转换等高频场景。
1. 多语言翻译
不仅能实现常规的中英互译,还能完成小语种翻译、专业领域翻译,甚至是方言转换、网络热词翻译。
示例:请将以下中文文本,翻译成商务场景正式的英文邮件用语,语气礼貌专业。
2. 格式转换
把非结构化文本转换成Markdown、JSON、HTML、表格等结构化格式,也能实现代码注释、文档转换、思维导图大纲生成。
3. 语气与风格转换
把文本改写成你需要的语气和风格,比如把口语化内容改成正式书面语、把生硬的文案改成亲切的小红书风格、把专业术语改成大白话科普。
4. 文本纠错与润色
实现语法纠错、错别字修改、语句润色,适配文案写作、邮件撰写、论文修改、代码调试等场景。
六、扩展:把短信息生成长文本
文本扩展,是让LLM基于简短的核心信息,扩写成长篇内容,比如邮件、文案、报告、故事、演讲稿等,是内容创作的核心能力。
1. 用好温度(Temperature)参数
温度值越低(0-0.3):输出越稳定、越聚焦,适合需要精准、固定结果的场景,比如正式邮件、报告撰写
温度值越高(0.7-1.0):输出越有创意、越多样,适合文案创作、故事编写、头脑风暴等场景
2. 明确扩写的核心框架
给模型指定扩写的结构、段落、核心要点,避免扩写内容偏离主题、逻辑混乱。
示例:请基于以下产品核心卖点,写一篇300字左右的电商产品详情页文案,结构分为标题、核心优势、适用人群、结尾引导四个部分。
3. 补充场景与受众信息
明确告知模型内容的使用场景、目标受众,让扩写内容更贴合需求,比如给职场新人的邮件、给客户的产品介绍、给学生的科普内容,写法完全不同。
七、搭建自定义对话助手
1. 设定清晰的角色与边界
给机器人明确的身份定位、工作职责、回复规则,甚至是语气风格,同时明确告知机器人不能做的事情,划定对话边界。
示例:你是一个专业的电商客服机器人,名字叫小助手,只回答和本店产品、订单、售后相关的问题,语气亲切耐心,不回答任何无关问题,遇到无法解答的内容,引导用户联系人工客服。
2. 管理对话上下文
LLM本身没有记忆能力,需要在提示词中传入完整的历史对话上下文,让机器人理解对话的前因后果,实现连贯的多轮对话,避免答非所问。
3. 标准化回复规则
给机器人设定固定的回复流程、话术模板,比如客服场景的欢迎语、投诉处理流程、售后解决方案,确保回复的规范性与一致性。
4. 持续迭代优化
基于真实的对话数据,不断优化提示词,补充高频问题的标准答案,修正机器人的错误回复,让对话效果持续提升。
结语
提示工程不是玄学,而是一套可学习、可复用、可迭代的系统方法论。在AI时代,能否用好大模型,核心不在于模型本身,而在于你能否通过精准的提示词,驾驭模型的能力,把它转化为实际的生产力。
本文整理自DeepLearning.AI《ChatGPT Prompt Engineering for Developers》官方课程,由 OpenAI 技术团队成员 Isa Fulford 与 DeepLearning.AI 创始人 Andrew Ng(吴恩达)联合授课,仅用于 AI 技术学习分享。