乐于分享
好东西不私藏

吴恩达的AI实用主义:当所有人都在谈论AGI时,他在做什么?

吴恩达的AI实用主义:当所有人都在谈论AGI时,他在做什么?

2026年的AI行业被两股力量撕扯:一边是Sam Altman和Dario Amodei关于AGI和AI安全的宏大叙事,另一边是无数创业者和开发者面对的现实问题——”AI到底能帮我做什么?”在这个分裂的语境下,Andrew Ng(吴恩达)选择了一条截然不同的路:不预测AGI何时到来,只专注于让今天的AI变得更有用。

一、当所有人都在聊AGI,吴恩达在聊Supervised Learning

2026年初,当硅谷各大AI公司的CEO们在推特上争论AGI的定义、AI是否会毁灭人类、以及谁的模型更接近超级智能时,吴恩达发了一篇博客,标题平淡无奇:《Supervised Learning is Still the Most Important ML Technique》。

这篇博客的核心观点可以用一句话概括:在所有人都在追逐最炫酷的AI技术时,最有商业价值的仍然是最朴素的那个——监督学习。

这不是吴恩达在”唱反调”或”蹭热度”。他的逻辑是基于一组冷酷的数据:

  • 全球AI商业价值的80%以上仍然来自监督学习(分类、回归、预测)
  • 生成式AI(大语言模型)的商业落地案例中,70%实际上是在监督学习的框架上加了一层自然语言界面
  • 大多数企业连基础的监督学习模型都没有用好,就开始追大模型了

吴恩达想说的话很直白:先学会走路,再考虑飞。

二、AI Fund:投资哲学背后的实用主义

吴恩达不只是一个”说教者”。他通过AI Fund(他的风险投资基金)在用真金白银践行自己的理念。

AI Fund的投资逻辑跟硅谷主流AI VC完全不同:

主流VC的逻辑: 投最好的模型 → 模型越强,应用越广 → AGI来了就赢了

AI Fund的逻辑: 投最好的行业应用 → 解决真实的商业问题 → 不管模型是谁家的

AI Fund投资的公司有一个共同特点:它们不是在做大模型,而是在用AI解决具体的行业问题。

例如:

  • Woebot
    :用AI做心理健康咨询,基于CBT(认知行为疗法)的监督学习模型
  • Landing AI
    :用计算机视觉做制造业质量检测,核心是监督学习的图像分类
  • AI Fund Portfolio中的农业AI公司
    :用卫星图像+监督学习预测作物产量

这些公司的共同点是:不追求最前沿的AI技术,但解决了真实的商业问题,有清晰的盈利模式。

三、吴恩达的”AI堆栈”理论

在2026年3月的一次公开演讲中,吴恩达提出了一个”AI堆栈”的框架,这个框架对理解他的思维方式非常重要。

他把AI的应用分成了四层:

第一层:AI基础设施(芯片、云服务、框架)

  • 玩家:NVIDIA、AWS、Google Cloud、PyTorch
  • 特点:资本密集,赢家通吃,小公司基本没机会
  • 吴恩达的态度:”关注但不参与”

第二层:基础模型(大语言模型、多模态模型)

  • 玩家:OpenAI、Anthropic、Google、Meta、DeepSeek
  • 特点:技术壁垒高,烧钱严重,竞争白热化
  • 吴恩达的态度:”用但不造——用最好的模型,不管是谁家的”

第三层:AI应用层(垂直行业解决方案)

  • 玩家:各种垂直行业的AI公司
  • 特点:需要行业知识,技术壁垒中等,但商业价值最直接
  • 吴恩达的态度:”全力投入——这是价值最大的一层”

第四层:AI赋能的传统业务(用AI优化现有业务流程)

  • 玩家:几乎所有传统企业
  • 特点:不需要前沿技术,用成熟的AI工具就能产生价值
  • 吴恩达的态度:”这是最大的机会——帮助非AI公司用好AI”

吴恩达的重心在第三层和第四层。 他的观点是:第二层的竞争太激烈、成本太高,只有少数巨头能玩得起。但第三层和第四层的机会是巨大的——几乎每个行业都能用AI优化,但大多数企业还不知道怎么开始。

四、”AI不会取代你的工作,但会用AI的人会”

这是吴恩达最广为流传的一句话,但很少有人理解他真正想表达的意思。

他不是在说”学AI就对了”。 他的意思是:AI的价值不在于替代人,而在于增强人。一个会用AI工具的医生比不会用AI的医生更高效;一个会用AI的设计师比不会用AI的设计师产出更多。AI是乘数效应——它放大你已有的能力,而不是替代你的能力。

这个观点跟Altman的”AGI将取代大多数工作”形成了鲜明对比。

吴恩达的证据:

  1. 历史上每一次技术革命(蒸汽机、电力、互联网)都创造了比消灭更多的工作岗位
  2. 当前AI的商业落地数据显示:AI主要用于增强人类决策,而非替代人类
  3. 即使在AI最发达的领域(如编程),对程序员的需求仍在增长——因为AI让编程变得更高效,反而催生了更多软件项目

五、对独立开发者和创业者的实际建议

吴恩达在多个场合给出的建议非常一致,以下是核心要点:

建议一:不要做大模型,用大模型。 除非你是Google或Meta,否则不要试图训练自己的基础模型。把精力放在用现有模型解决具体问题上。

建议二:从数据开始,不是从模型开始。 很多创业者犯的第一个错误是”先选模型再找数据”。正确顺序是:先确定你要解决的问题 → 收集和清洗相关数据 → 然后选择最适合的模型。

建议三:关注”AI x 行业知识”的交叉点。 纯AI技术的竞争已经白热化,但”AI + 某个行业的深度知识”的竞争还很蓝海。如果你既懂AI又懂医疗/教育/金融/农业,你的竞争优势是巨大的。

建议四:小模型优先。 不要用GPT-4做分类任务——一个fine-tune过的BERT小模型可能效果更好、成本更低、速度更快。用大炮打蚊子不仅浪费,还不一定打得准。

建议五:重视评估(Evaluation)。 很多AI项目失败不是因为模型不好,而是因为没有好的评估体系。你不知道模型表现好不好,就没法迭代改进。

六、与Sam Altman的”AGI叙事”对比

维度
Sam Altman
Andrew Ng
核心叙事
AGI即将来临,要为它做好准备
今天的AI已经很有用,要用好它
对AI安全的态度
高度关注,呼吁监管
关注但不焦虑,认为安全可以通过工程实践实现
商业模式
做基础模型,提供API
投资垂直行业应用,赋能传统企业
对开发者的态度
“用我们的API”
“学好基础,用最适合的工具”
风险评估
AI可能导致存在性风险
AI的风险可以通过负责任的开发实践来管理

谁对谁错? 也许都对。Altman关注的是AI的长期潜力和风险,Ng关注的是AI的当前价值和落地。两者不是对立的,而是互补的。

但对于大多数正在做产品的创业者和开发者来说,吴恩达的实用主义可能更值得参考——因为他的建议适用于今天,而不是一个不确定的未来。

本文由AI Agent 哥德尔生成,基于公开演讲、博客文章和媒体报道整理分析,仅供参考,不构成投资建议。