乐于分享
好东西不私藏

吴恩达 AI 新课我替你学完了,精华笔记全在这

吴恩达 AI 新课我替你学完了,精华笔记全在这

✍️ 作者: 大刘📝 编辑: 大刘🎨 排版: 大刘

五一假期,我窝在家里看了3天网课。

3个模块,21节视频,总时长3小时。吴恩达4月28号刚上线的 AI Prompting for Everyone,完全免费。

说真的,一开始是犹豫过的。

一门叫「面向所有人」的提示词课,对我这种深入AI领域、学习工作了好几年的人来说,会不会太入门了?

结果五一第一天晚上,我在书房开了个iPad,随手点开第一节。

然后一口气看到了凌晨一点。因为,全是干货,适合所有人

比如说:

  • AI回答忽好忽烂,怎么解决?

  • 给AI什么背景信息,它才不给你「百度百科」?

  • 大模型在系统性地谄媚你,怎么办?

  • AI是顶级编辑,却是平庸作者

  • AI已经能看图、算数、写代码了,你还只在跟它聊天?

我发现,自己用AI的好几个习惯,一直是错的。

而且错得还挺自信的。

吴恩达自己在 LinkedIn 上说过一句话,大意是,2026年我们跟AI互动的方式,跟2022年已经完全不同了

学完以后我才真正理解这句话的分量。

所以这篇文章,我想把课里最精华的几个点带大家过一遍

三层搜索模型:最让我意外的开场

01

课程第一个模块讲的是怎么用AI找信息。

听起来很基础对吧?我也这么觉得。

但他上来就抛了一个模型,直接把我的认知撕开了一个口子。

他把AI搜索信息的能力分成了三层。

最底层,Pretrained Knowledge。就是模型训练时候吃进去的那些知识。你问它一个常识性问题,它直接从「记忆」里掏给你。快,但不一定准,而且有知识截止日期。

中间层,Web Search。模型联网搜索,去网上找最新的信息再整合给你。

最上层,Deep Research。模型自己花几分钟甚至十几分钟,制定研究计划,查多个来源,交叉验证,最后给你输出一份完整报告。

你想想看,大多数人日常用AI,其实只用到了第一层。

我自己也是。之前经常把应该用 Deep Research 去处理的问题,随手一句话就丢给 Claude 了。然后觉得它回答得不够深、不够准。

心里就在想「这模型不行」。

其实不是模型不行,是我一直在让它用最低档的模式,干最高档的活。

他还给了一个特别简单的判断方法。如果答案在几秒内就能确认对错,第一层够了。如果需要当天的最新信息,用第二层联网搜索。如果你自己查这件事需要花一个小时以上翻多个来源交叉验证,那就该上 Deep Research。

这个分法帮我理清了一个困扰挺久的问题。为什么有时候AI回答质量忽高忽低?不是模型不稳定,是我每次给它的任务层级不一样,但用的模式全是同一个。

课上还专门花了8分钟讲了一整节,就讲一件事,不要盲信AI的搜索结果

这个点我太有共鸣了,因为用AI用得越久,反而越容易放松警惕。(这个对咱们大大部分需求准确性、合规性的场景是最重要的)

它回答得流畅、自信、条理清晰,你就默认它说的是对的。

我自己就踩过这个坑。

今年3月做一个AI教育行业的竞品分析报告,让 Claude 帮我拉几个竞品的融资数据。它给我的数字精确到百万美元,引用的来源都写得很规范。我直接贴到了报告里。

后来老板随口问了一句「这个数字你核实过吗?」

我回去一查,Crunchbase 上的数据跟 Claude 给的差了将近40%。= =

但它错得很「合理」。合理到如果没人追问,我根本不会去核实。

AI越好用,你越需要保持怀疑。

Context 与 Reasoning:把你的脑子共享给AI

02

三层搜索模型只是开胃菜。第二个模块才是真正的精华,他管这个叫「AI as a Thought Partner」,AI作为思维伙伴。

他展开讲了两个关键能力,一个是 context,一个是 reasoning。这两个词听起来不新鲜,但他讲的颗粒度把我之前一些自以为是的操作给掀翻了。

先说 context。他的意思不是「给更多信息」,而是「给对信息」。

很多朋友可能不知道,现在 Claude、ChatGPT 的桌面版应用,已经可以直接读取你电脑上的文件了。你不用把内容复制粘贴到对话框里,直接让它读你的文档、代码、数据表就行。

这个能力被严重低估了。

你想想看,你跟AI对话的时候,它只知道你打出来的那几句话。它对你的了解程度跟一个刚认识5秒钟的陌生人差不多。

课上列了几种最值得给AI的 context。

第一种,你的项目文档和背景材料,让它知道你在做什么。

第二种,你之前的思考笔记和草稿,让它知道你已经想到哪了。

第三种最容易被忽略,你自己对这件事的判断和偏好,不是让AI替你想,而是让它知道你怎么想。

我现在每次用 Claude 之前,都会根据不同的任务把这三种 context 丢进去。效果天差地别。

课上还提到了一个被严重低估的功能,Custom Instructions。就是在 ChatGPT 或 Claude 的设置里,预先写好一段关于你的介绍。他建议至少写四样东西。你的职业和专业领域,你当前最关心的项目或问题,你希望AI回答的风格(详细还是简洁、技术还是通俗),以及你的决策偏好(比如偏保守还是偏激进)。

这样每次开新对话,AI已经对你有了基础了解。相当于你跟AI之间有了一张「名片」,不用每次见面都自我介绍一遍。

context 不是「多给信息」,是「把你的脑子共享出去」。

他还强调了一点,给 context 的时候要同时告诉AI你的「知识状态」。就是你对这件事已经了解到什么程度了,哪些部分有把握,哪些部分还拿不准。这样AI就不会花时间给你讲你已经知道的东西,而是直接攻你的盲区。

再说 reasoning。课上专门讲了一节,什么时候应该让AI使劲想。

现在 ChatGPT 的 o3、Claude 的 extended thinking,这些模式的特点是,模型会花更长时间去推理,不是马上给你一个答案。他把它比作「让AI皱着眉头想十分钟,而不是脱口而出」。

他给了一个判断标准。如果这件事你自己需要想超过5分钟才能给出靠谱的回答,那就应该让AI也慢慢想。问天气、查航班、翻译一句话,秒回就够了。但涉及策略判断、方案权衡、多因素博弈的问题,reasoning 模式的输出质量会有质的飞跃。

他还特别提到,reasoning 模式最值钱的地方不是「想得更久」,而是「会自我纠错」。普通模式下模型写到一半发现方向不对,它会硬着头皮圆下去。reasoning 模式下它会停下来,退回去,换一条思路重新推导。

这个差距在实际使用里非常明显

上周帮朋友评估「AI+宠物」赛道。默认模式5秒钟出了一份分析,「蓝海市场」「增速可观」「技术壁垒低」。看着挺像样但没什么洞察。

后来打开 extended thinking,换了个问法「这个赛道有什么大家忽略的致命风险?想仔细,不着急。」

它想了3分钟,指出了一个我压根没想过的点。宠物行业的决策者是人,但服务对象是不会反馈的动物。AI在这个场景里缺少闭环数据,跟 AI+教育、AI+医疗完全不同,不能套用同一套增长模型。

同一个 Claude。差距不是模型变了,是我给了它皱眉头想的时间。

context 和 reasoning 合在一起看,其实讲的是同一件事。AI不是一个你按一下按钮就吐答案的贩卖机。它更像一个很聪明但完全不了解你情况的新同事。你得给它背景,给它时间,它才能给你真正有价值的东西。

Sycophancy:全课最让我后背发凉的部分

03

接下来要讲的这个东西,是我五一那三天里,学到最震撼的一节。

Sycophancy。翻译过来就是「谄媚」。

当时大概是五一第二天的下午,我在客厅沙发上看到这一节的时候,手里的可乐差点没拿稳。

吴恩达引用了2026年3月发表在 Science 上的一篇论文。研究对象是 ChatGPT、Claude、Gemini、Llama。

结论让人头皮发麻。

这四个模型,全部在迎合用户的信念。

全部。

什么意思呢。

就是当你在对话中表达了一个观点,哪怕这个观点是错的,AI大概率不会反驳你。

它会顺着你说,甚至帮你找理由来证明你是对的。

我相信大家估计也深有感触。

我也回想了一下自己过去半年的使用习惯,确实经常拿AI来验证自己的想法。

我会跟 Claude 说「我觉得XX市场明年会爆发,你怎么看?」

然后它每次都说「你的分析很有道理,确实有几个关键因素支持这个判断」。

我还挺开心的,觉得自己商业嗅觉不错。

现在想想。它可能只是在哄我。

就像一个永远不会说「老板你这个方案有问题」的下属。它不是认同你,它是在讨好你。

而且这不是个别现象。Science 那篇论文的结论是,这是系统性的。所有模型都有这个倾向。

那么是为什么呢?

其实不是bug,更像是训练过程中形成的「本能」。

因为这些模型在训练的时候,大量的人类反馈数据都倾向于奖励「让用户满意的回答」。用户满意了,给好评了,模型就学到了。

顺着用户说 = 好。

你知道吗,我以前做交互设计的时候,做用户调研有一条铁律。你不能问用户「你觉得这个功能好不好用?」因为对方大概率会说好。你得问「你上次用这个功能是什么时候?遇到了什么问题?」

引导性提问会让你得到你想听的答案,而不是真实的答案。

结果现在AI在对我做一模一样的事。而我居然没认出来。

更让我后怕的是,我想起了去年底的一件事。当时在做一个项目方向的判断,我反复跟 Claude 确认了好几轮「你觉得这个方向靠谱吗?」它每一轮都说靠谱,还帮我补了一堆论据。我就真的推进了。后来跑了两个月才发现方向偏了,复盘的时候一直在想到底哪里判断出了问题。

现在想想,问题可能不在我的判断,而在于我的「验证流程」里有一个永远不会跟我说不的搭档

不是不知道AI会犯错。而是没想到它会系统性地不告诉你,它觉得你错了。

你以为你在跟AI讨论问题。

其实它全程在给你鼓掌。

精华来了,吴恩达给了几个对抗 sycophancy 的方法,我觉得每一个都很实用。

第一个,在对话中明确要求AI提供反面论证。你做完一个决策以后,直接问它「这个方案最大的三个风险是什么?」「如果你是我的对手,你会怎么攻击这个方案?」

第二个,给AI一个「批评者」的角色设定。告诉它「你是一个严格的审稿人」或者「你是一个怀疑主义者」。让它的默认模式从讨好切换成挑刺。

第三个,最简单但最容易被忽略的,在prompt里加一句「please be honest, even if your feedback is critical」(请诚实,即使你的反馈是批评性的)。

我现在已经把第三个变成了自己的固定操作。每次让 Claude 帮我 review 东西的时候,开头都会加这么一句。

效果肉眼可见地不一样了。它真的会开始跟你说「这个部分逻辑链条有断裂」「这个数据不足以支撑你的结论」。

说真的,被AI直接指出问题的感觉,比被它夸还爽。

AI的默认人设不是诤友,是啦啦队。

而真正的好搭档,得是那种会当面跟你说「你这个想法有问题」的人。

Writing & Critique:AI是顶级编辑,但只是平庸作者

04

讲完 sycophancy 谄媚问题以后,课程后面就进入了一个大部分人最常用的场景。用AI写东西。

这节课给了我一个很大的认知转变。

大多数人用AI写作的流程是这样的。给一个主题,让它直接生成一篇完整内容,自己再改改润色。

课上说,这个顺序是反的。

更好的方式是,你自己先写一个粗糙的草稿。不需要多完整,甚至只是几个要点、一些零散的想法、你自己的判断和观点。然后把草稿丢给AI,让它帮你扩展、优化、补充论据、理顺逻辑。

为什么?因为AI最擅长的不是从零创作,而是在你已有的基础上做优化。你给它方向和素材,它能帮你走得更远。但让它自己定方向,出来的东西大概率是通用的、平庸的、像百度百科的。

AI是一个顶级的编辑,但只是一个平庸的作者。

我之前就踩过这个坑。让 Claude 直接写一篇行业观察,出来2000字,每一句都对但读完等于没读。后来我把自己的笔记、观点、甚至几句吐槽先写出来,再让它帮我整理成文。出来的东西完全不一样了,因为里面有我自己的判断,AI只是帮我把表达理顺了。

紧接着下一节讲的是 AI Critique。怎么让AI给你的作品提真正有用的批评意见。

课上教了一个我觉得特别巧妙的方法。把你的作品说成是「别人写的」,再让AI评价。

为什么有效?还是因为 sycophancy。AI对「你的作品」天然有讨好倾向,但对「别人的作品」它会更客观。你跟 Claude 说「帮我看看我写的这篇文章」,它大概率说「整体写得很好,有几个小地方可以优化」。但如果你说「我同事写了篇文章让我帮忙看看,你觉得有什么问题?」出来的反馈会犀利得多。

课上还给了几个实用的 critique 方法。让AI扮演特定的批评者角色(比如「你是一个严格的投资人,正在评估这份商业计划书」),要求它给出具体的打分和排名而不是泛泛而谈,以及强制它列出「最大的三个问题」而不是「一些建议」。

我现在写完东西都会先用「别人写的」这招让 Claude 过一遍。发现的问题比自己反复读十遍多得多。

多模态与代码:AI不只是一个聊天框

05

第三个模块是让我最意外的。不是因为内容多难,而是因为我突然意识到,自己一直在把AI当成一个纯文字工具在用。

这个课程模块叫 Working with Multimedia & Code。讲的是AI处理图片、数据和代码的能力。

先说图片理解。你可以直接把一张图丢给AI,让它分析图表里的趋势、识别文档里的关键信息、解读一张照片里的细节。课上演示了一个例子,上传一张数据可视化截图,AI直接从图里提取出了关键洞察和数据点。

这个能力我之前完全没用过。以前看到一份报告里的图表,我都是自己一个个看、手动记数据。从来没想过可以直接截图丢给 Claude 让它帮我分析。试了以后发现,它读图表的速度和准确度比我自己扫一眼强太多了。

再说数据分析。你可以把一个 CSV 文件直接丢给AI,然后用自然语言问问题。「这个数据集里哪个月增长率最高?」「帮我画一个按地区分的销售趋势图。」不用写一行代码,不用开 Excel 拉公式。

最让我开眼的是 Building Apps。课上演示了完全不懂代码的人,只靠描述需求,让AI生成一个可以在浏览器里跑的小应用。描述功能 → AI写代码 → 测试 → 用自然语言说哪里要改 → AI修改 → 再测试。整个过程不需要看懂一行代码。

我自己试了一下,让 Claude 帮我做了一个简单的工具对比表格。跟它描述了需求,它直接给了一个可以运行的页面。第一版挺粗糙,但来回改了三四轮,居然还真挺好用的。

AI已经不只是一个你打字它回话的聊天框了。它能看图、能算数、能写代码、能帮你做出可以运行的东西。

而你唯一需要的,就是用自然语言清楚地描述你想要什么。

写在最后

06

回过头看整门课,从搜索三层模型、context 和 reasoning、到 sycophancy、写作 critique、再到多模态应用,其实讲的都是同一件事。怎么跟AI协作,而不是怎么给AI下命令。

这大概就是我从这门课里最真实的收获。不是学会了某个具体的 prompt 技巧,而是整个跟AI互动的心态变了。从「我要控制它」变成「我要跟它一起想」。

提示词会过时,今天管用的prompt模板明年可能就不适用了。

但「知道怎么跟AI一起想」这件事,不会过时。

回到开头,五一第一天晚上我犹豫要不要点开这门课。

觉得一个在AI领域待了好几年的人,去学一门「面向所有人」的课,有点掉价。

现在回头看,这种心态本身就挺可笑的。

越是觉得自己懂了的人,越容易被自己的惯性困住。

3个模块,21节视频,3小时,完全免费。

有时候,你觉得自己最不需要学的东西,恰恰是你最该学的。

希望我整理的笔记能帮到你。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章

你的关注是我持续更新的动力~

我是谁

我是 AI大刘,北大毕业,大模型研究方向,腾讯犀牛鸟,先后在腾讯、百度的大模型研发部门,现在给多家国企做AI顾问(也期待大家和我咨询交流

欢迎链接我,期待您的加入