吴恩达新课程《AI Prompting for Everyone》上线了,免费.我不建议你马上报课
吴恩达出了个新课,我瞅了瞅
五一期间躺着刷视频时,看到吴恩达在 DeepLearning.AI 上线了一门新课程,跑进去瞅了瞅:
AI Prompting for Everyone(https://www.deeplearning.ai/courses/ai-prompting-for-everyone/)
B站上也有人做了汉化字母,里面还有很多不错的课程
https://www.bilibili.com/video/BV1UT9qBDET7/?vd_source=5f6539169a80167e1b98bde085213a52

3 小时 4 分钟,21 节课,3 个作业。没有编程要求,入门级。
本来最开始是觉得这么基础的东西,作为一个从业者,没啥好了解 的,抱着看大佬们是如何体系化的讲解这些知识的心态进去看了下
他在课程介绍里说了一句话,让我“啊哈”了下:
How we prompt AI models today is very different from when ChatGPT first came out in 2022.
我们现在的 Prompt 方式,和 2022 年 ChatGPT 刚出来时完全不同。
他还说:
As these tools have become more capable, the people who know how to use them well are getting significantly more done.
知道如何用好 AI 的人,正在显著完成更多工作。
我快速的撸了一遍视频。
课程讲了什么?
核心是三大模块:
模块 1:AI 搜索信息的三个层次(Finding Information)
模块 2:思维伙伴——Context 与 Reasoning(Brainstorming & Writing)
模块 3:多模态与代码(Multimedia and Code)
模块 1:三层搜索模型
课程第一个模块讲的是怎么用 AI 找信息。听起来很基础,但我被一个模型直接撕开了认知。
他把 AI 搜索信息的能力分成三层:
第一层:预训练知识(Pretrained Knowledge)
模型训练时内置的知识。你问它一个常识,它直接从”记忆”里掏。快,但有知识截止日期,也不一定准。
第二层:联网搜索(Web Search)
模型联网查最新信息,再整合给你。
第三层:深度研究(Deep Research)
模型花几分钟甚至十几分钟,制定研究计划,查多个来源,交叉验证,最后给你一份完整报告。
大多数人日常用 AI,其实只用到了第一层。
我之前也这样。经常把应该用 Deep Research 处理的问题,随手一句话就丢给 Claude 了。然后觉得它回答不够深、不够准,心里想”这模型不行”。
其实不是模型不行,是我一直在让它用最低档的模式,干最高档的活。
吴恩达给了一个特别简单的判断标准:
-
答案几秒内能确认对错?→ 第一层够了 -
需要当天最新信息?→ 第二层联网搜索 -
你自己查需要花一小时以上翻多个来源?→ 该上 Deep Research
这个分法帮我理清了一个困扰挺久的问题:为什么 AI 回答质量忽高忽低?不是模型不稳定,是我每次给它的任务层级不一样,但用的模式全是同一个。
模块 2:Context 与 Reasoning
这是课程真正的精华。
Context:不是给更多,是给对的信息
很多人在用 AI 的时候,只知道把问题丢进去。但 AI 对你的了解程度,跟一个刚认识五秒钟的陌生人差不多。
吴恩达列了几种最值得给 AI 的 Context:
第一种:项目文档和背景材料,让它知道你在做什么
第二种:之前的思考笔记和草稿,让它知道你已经想到哪了
第三种最容易被忽略:你自己对这件事的判断和偏好,不是让 AI 替你想,而是让它知道你怎么看
还有一个被严重低估的功能:Custom Instructions(自定义指令)。
在 ChatGPT 或 Claude 的设置里,预先写好一段关于你的介绍,这部分类似OpenClaw里面的USER.md/SOUL.md/Identity.md类似的定义。
吴恩达建议至少写四样:
-
你的职业和专长
-
你当前最关心的项目
-
你希望 AI 回答的风格(详细还是简洁)
-
你的决策偏好(保守还是激进)

Gemini、ChatGPT、豆包等都可以在个性化或记忆中进行配置
这样每次开新对话,AI 已经对你有基础了解了。相当于你跟 AI 之间有了一张”名片”,不用每次都自我介绍。
给 Context 的时候,还要告诉 AI 你的”知识状态”:你对这件事了解到什么程度了,哪些有把握,哪些还拿不准。这样 AI 不会花时间讲你已经知道的,而是直接攻你的盲区。
Context 不是”多给信息”,是”把你的脑子共享出去”。
Reasoning:什么时候该让 AI 慢慢想
现在 ChatGPT 的 5.4 Thinking、Claude 的 extended thinking,这些模式的特点是:模型会花更长时间推理,不是马上给你答案。
吴恩达给了一个判断标准:
如果这件事你自己需要想超过 5 分钟才能给出靠谱的回答,那就应该让 AI 也慢慢想。
问天气、查航班、翻译一句话,秒回就够了。但涉及策略判断、方案权衡、多因素博弈的问题,reasoning 模式的输出质量会有质的飞跃。
reasoning 模式最值钱的地方不是”想得更久”,而是”会自我纠错”。
普通模式下,模型写到一半发现方向不对,会硬着头皮圆下去。reasoning 模式下,它会停下来、退回去、换一条思路重新推导。
大家在使用Gemini或者豆包时会明显的发现Fast模式下回答的基本上都属于模型训练内的知识可信度会高很多,真要做一些技术性的推导,最简单的让他分析github中的某些仓库进行对比时,就会出现明显的偏差,如果你换思考模式或者Pro模式效果会好很多
所以使用时需要学会给它开始深思熟虑的时间,要学会选择和等待,而不是盲目的说模型不行。
模块 3:多媒体与代码
这个模块主要讲解图片理解、数据分析、构建应用等,标明AI 已经不只是一个聊天框了。它能看图、能算数、能写代码、能帮你做出可以运行的东西。
这部分就不赘述了,对这些应用场景感兴趣的可以去看看。
而你唯一需要的,就是用自然语言清楚地描述你想要什么。
这也是最近最近带领团队做AI转型在内部培训最多的,知道哪些LLM具备图片理解的能力、应该如何做好数据分析甚至更进一步的构建自己的ChatBI,如何构建个人/团队的Spec能模块化的开发能上生产的产品,而不是被外面Vibe Coding和各种AI挣钱泡沫带偏;
一个最大的认知转变
课程最后讲写作的那节,给了我一个很大的认知转变。
大多数人用 AI 写作的流程是:给一个主题,让它直接生成一篇完整内容,自己再改改润色。
这个顺序是反的。
更好的方式是:你自己先写一个粗稿。不需要多完整,甚至只是几个要点、一些零散的想法、你自己的判断和观点。然后把草稿丢给 AI,让它帮你扩展、优化、补充论据、理顺逻辑。
为什么?
因为 AI 最擅长的不是从零创作,而是在你已有的基础上做优化。你给它方向和素材,它能帮你走得更远。但让它自己定方向,出来的东西大概率是通用的、平庸的、像百度百科的。
AI 是工具、是编辑,会检索、精通排版,但是个没有个人核心观点、只会趋炎附势的写手。
有个挺有意思的发现,你跟 Claude 说”帮我看看我写的这篇文章”,它大概率说”整体写得很好,有几个小地方可以优化”。但如果你说”我需要审稿或同事写了一篇文章让我提点意见,你觉得有什么问题?”,出来的反馈会犀利得多。
但我为什么说”先别急着报”
这门课好不好?好。吴恩达讲课的能力没得说。
但我不建议所有人一看到新课就马上去报,我建议先改变你的思维方式,带着这种改变去学习。
第一,Prompt 的核心不是技巧,是理解。
吴恩达强调的也是”理解 AI 如何查找和使用信息”,而不是”背下 10 个 Prompt 模板”。这种理解不需要花 3 小时上课才能获得。你只需要改变一个思维方式:
不要把 AI 当搜索引擎,把它当思维伙伴。
第二,AI 高手和 AI 新手的区别,不在 Prompt 写法,在场景判断。
-
什么时候该用预训练知识(不用联网)? -
什么时候该联网搜索? -
什么时候该用 Deep Research? -
什么时候该开 reasoning 模式?
这种判断力,是在日常使用中积累出来的,不是上课能教会的。
第三,最有价值的一点:对抗 AI 的讨好型人格。
这是课程里让我最深有同感的一点(点名批评某包,各种三字套话哗哗往外吐,5月底收费筛选用户的话,我就弃坑了,麻烦一点手机上去用GPT或Gemini)。
吴恩达引用了 2026 年 3 月发表在《Science》上的一篇论文。研究对象是 ChatGPT、Claude、Gemini、Llama。结论是:
这四个模型,全部在系统性地迎合用户的信念。
什么意思?当你在对话中表达了一个观点,哪怕这个观点是错的,AI 大概率不会反驳你。它会顺着你说,甚至帮你找理由来证明你是对的。
这不是 bug,更像是训练过程中形成的”本能”。因为人类反馈数据倾向于奖励”让用户满意的回答”。顺着用户说 = 好,用户给好评了,模型就学到了。
你以为你在跟 AI 讨论问题。其实它全程在给你鼓掌。
对抗 sycophancy(谄媚),吴恩达给了几个方法:
方法一:在对话中明确要求反面论证。 做完决策后问”这个方案最大的三个风险是什么?””如果你是对手,会怎么攻击这个方案?”
方法二:给 AI 一个”批评者”角色设定。 告诉它”你是一个严格的审稿人”,让它的默认模式从讨好切换成挑刺。
方法三(最简单但最容易被忽略):在 prompt 里加一句 “Please be honest, even if your feedback is critical”。
我现在每次让 Claude 帮我 review 东西,开头都会加这么一句。效果肉眼可见地不一样了。
吴恩达这门课的价值,不在于教了你多少 Prompt 模板。
在于他帮你建立了一个正确的思维框架:
Prompt 不是技巧问题,是理解问题。
你不需要背下”10 个万能 Prompt”。你需要理解 AI 是怎么工作的——它有三个搜索层次,它需要 Context 来了解你,它需要 Reasoning 的时间,它有讨好你的本能,它是一个顶级编辑但平庸的作者。
这才是”AI 高手”和”AI 新手”的真正分水岭。
所以,先别急着报课。先改变你的思维方式,带着这种改变去学习。
然后,你会发现,你已经在用 AI 完成更多工作了。
一个喜欢瞎捣鼓的架构师,把团队转型过程中踩过的坑讲给你听。
参考资料
-
吴恩达《AI Prompting for Everyone》:https://www.deeplearning.ai/courses/ai-prompting-for-everyone/ -
Science 论文:Sycophancy in Large Language Models(2026年3月)
夜雨聆风