OpenAI 最新提示词指南,终于把“咒语时代”结束了
AI范儿 · 行业观察⏱ 6 分钟
这两年,我收藏了不少提示词。
但发现这事儿越来越离谱,很多人写的提示词变成了长篇大论,整得我每次都要翻出来复制粘贴才行。
看着很专业,有些人居然以此为傲,觉得自己是个提示词专家。
但说实话,我现在看到这种提示词都是绕着走。
OpenAI 最新的 GPT-5.5 提示词指南印证了我这个感受:提示词,不再是越长越好。
01以前的长提示词,也有道理
以前那套大段提示词,它也不是毫无道理的。
主要是因为那时候的模型没那么聪明,你不把每一步讲清楚,它就很容易跑偏。

就像带实习生,第一步做什么、第二步做什么、哪些地方不能出错,最好都说细一点。
但现在的 AI 跟两三年前的比,已经进化多少轮了。现在很多时候,我们只需要简单几句话,它就能理解我们要干什么。
如果是一个经验丰富的同事,我可能只要说一句:”明天要跟大老板汇报。”他大概就能秒懂我要什么。
现在的 AI,已经从”实习生”慢慢变成这种更有经验的同事了。

02真正关键:告诉它你要什么
OpenAI 在文档里明确说,相比早期模型,GPT-5.5 通常可以使用更短、更结果导向的提示词。
你只需要描述什么是”好”,哪些约束很重要,有哪些证据可用,以及最终答案应该包含什么。
反过来,如果你还把旧模型时代那套大段提示词直接搬过来,可能反而会变成噪音。
太复杂的提示词,会限制模型自己的判断空间,让它的回答变得机械、僵硬,甚至绕远路。
我自己最近就有一个很明显的感受。
现在很流行用 AI 做面相分析、手相分析。一开始我也去网上搜各种提示词,结果发现很多都特别长,看着就头疼。
比如这种,我居然一屏都截不完。。

后来干脆自己写,发现一句话就够了:用东方的面相分析术,做一个完整的面相分析,9:16。
这有点反直觉。
很多人总觉得 AI 干得不好,是因为自己步骤写得不够细。但在新模型上,问题可能恰好相反:你把步骤规定得太死,反而会让它没法发挥。
示例:结果优先的提示词写法
端到端地解决客户的问题。成功标准:– 根据现有政策和账户数据做出资格判断– 在回复前完成所有允许的操作– 最终答案包含:已完成的操作、客户消息、以及阻碍项– 如果缺少证据,只询问最关键的那一个缺失字段
💡 提示OpenAI 建议:先定义目标结果、成功标准、约束条件和已有上下文,然后让模型自己选择解决路径。尤其是多任务、多步骤的事,不一定要把每一步都列出来,而是要描述终点。
03少用绝对化词汇
OpenAI 还提醒,像 ALWAYS、NEVER、must、only 这类绝对化词汇,应该少用。
除非是安全、隐私、必填字段这种真正不能突破的原则,否则不要动不动就写”永远不能””必须如何”。
这跟人其实也一样。如果你对一个孩子规定一大堆绝对禁令,最后他可能不是表现得更好,而是直接崩溃,因为他不知道该怎么做事了。
AI 也是一样,规则太多,不一定更安全,也不一定更准确。更好的方式不是下死命令,而是给判断规则。
反例:应避免的逐步指令写法
先检查 A,再检查 B,然后逐一对比每个字段,再逐一排查所有可能的例外情况,再决定调用哪个工具,再调用工具,最后向用户解释整个过程。
04提示词 2.0:定义协作方式
OpenAI 在指南里单独提到了两个词:personality(个性)和 collaboration style(协作风格)。
看到这个我感觉特别亲切。
因为现在很多智能体(比如OpenClaw、Hermes),第一件事通常就是设定它的风格、个性,或者说设定一个 Soul.md。
为什么要这么做?
因为现在的 AI 跟以前不一样了。以前它更像一个聊天机器人,你问一句,它答一句。
但现在它越来越像一个能帮你干活的助理:帮你查资料、写代码、做图、执行任务,甚至连续处理很多步骤。
这个时候,你跟它的关系就不只是”提问和回答”,而更像是”协作和共事”。既然是共事,那就需要先定一下合作方式。(约法三章)
就像我们在工作中带同事,也会告诉他:我希望你少说废话,有问题直接提,不要每个小事都问我,但如果会影响结果,一定要提前提醒我。这些其实就是协作风格。
OpenAI 对这两个概念的区分很清楚:
1personality控制这个助手听起来像什么样的人,比如热情、直接、正式、幽默、有耐心。
2collaboration style控制它怎么跟你一起工作,比如什么时候该问问题,什么时候可以自己做假设,什么时候要主动提醒风险。

关于个性(personality),OpenAI 给了两个例子:
示例:沉稳型任务助手的 Personality 配置块
你是一个有能力的协作者:平易近人、沉稳、直接。默认用户是能干的、且是善意行事的,以耐心、尊重和切实有用的方式回应。在请求已经足够清晰、可以直接着手的情况下,优先推进而非停下来反复确认。利用上下文和合理假设向前推进。只有在缺失的信息会实质性地改变答案、或带来明显风险时,才询问澄清,且问题要尽量聚焦。保持简洁,但不要变得生硬。给用户足够的上下文,让他们能够理解并信任这个答案,然后停下来。在能让要点更容易理解的情况下,使用举例、类比或简单比喻。在纠正用户或提出异议时,坦率但有建设性。当错误被指出时,直接承认并专注于修正。在专业范围内匹配用户的语气。默认不使用 emoji 和脏话,除非用户明确要求这种风格,或已在对话中清晰确立了这种风格的适用性。
另一个是“表达型协作助手”:
示例:表达型协作助手的 Personality 配置块
保持生动的对话存在感:睿智、好奇、在适当时候带点趣味,并对用户的思维保持敏锐的关注。在问题模糊时提出好问题,一旦有了足够的上下文,便果断推进。态度温暖、协作、得体。对话应该感觉轻松而有生气,但不是为了聊而聊。提出真实的观点,而不是单纯迎合用户,同时始终响应他们的目标和约束。在任务需要综合判断或给出建议时,保持审慎和踏实。在有足够上下文时给出明确的建议,说清楚重要的权衡,并坦诚面对不确定性,而不是含糊其辞。
以前写提示词,很多时候还是基于”聊天机器人”的思路,所以大家会强调语气、角色、身份,比如”你是一个资深专家””你是一个公众号编辑”。
但进入智能体时代之后,光设定角色已经不够了,你还要设定它怎么工作。
提示词 1.0 是让 AI 扮演一个角色,2.0 是让 AI 变成一个能协作的同事。
05前导语:别让用户对着白屏发呆
这份指南里,还有一个我觉得很有意思的点,叫前导语。
简单说,就是在 AI 真正完成任务之前,先给用户一点可见的反馈。
做产品的人经常会讲一个词,叫首屏时间,也就是用户多久能看到第一个画面。哪怕后面的数据还在慢慢加载,只要第一屏先出来了,用户就会觉得这个东西还在工作。

AI 现在也一样。
很多复杂任务都需要推理、调用工具、一步步处理。如果这个过程中完全没有任何响应,用户就会很崩溃。你不知道它到底是在认真干活,还是卡住了。
用过 GPT-Image-2 的人应该会有感受。以前生成图片,提交之后就只能看着它在那转圈,几分钟后突然把图片吐出来,中间什么都不知道。
现在很多体验变了。它会告诉你:正在理解需求,正在构图,正在生成草稿,正在做最后润色。哪怕真实等待时间没有明显变短,你的体感会好很多。因为你知道它正在推进。
OpenAI 建议,对于需要多步骤、调用工具,或者耗时比较长的任务,可以让模型先发一个简短的前导语,告诉用户它接下来要做什么。
示例:多步骤任务的前导语配置块
在任何多步骤任务的工具调用之前,先发送一条用户可见的简短更新,确认请求并说明第一步操作。控制在一到两句话以内。
示例:暴露独立消息阶段的编程智能体配置块
如果任务需要调用工具,必须在分析通道输出任何内容之前,先发送一条中间更新。该更新应确认请求并说明第一步操作。
提示词已经不只是”怎么让 AI 输出一个答案”,它还开始影响整个产品体验。
表面上看,这是一篇教大家怎么写 GPT-5.5 提示词的指南。但我读完之后,更大的感受是:我们该重新理解”提示词”这件事了。
以前很多提示词技巧,本质上只是一个阶段性产物。
那时候模型不够聪明,我们需要用大量规则去补它的短板。但现在,模型正在变得越来越强。你再用老方法去控制它,反而可能限制它。
未来真正重要的,可能不是谁收藏了更多提示词模板,而是谁更清楚自己要什么。
提示词正在从”写咒语”,变成”讲清楚需求”。这才是提示词从 1.0 走向 2.0 的核心变化
你现在写提示词,还在用”长篇大论”那一套吗?
觉得有用 → 点个❤️在看转给朋友
夜雨聆风