乐于分享
好东西不私藏

硅谷传奇投资人纳瓦尔:AI应用海啸来袭,两类人能撬动1000倍杠杆

硅谷传奇投资人纳瓦尔:AI应用海啸来袭,两类人能撬动1000倍杠杆

编译 何艳 庄泽

史蒂夫·乔布斯曾用一个经典比喻来描述计算机的作用:“计算机就像是大脑的自行车”,它让人类的思考效率像骑行一样,远超步行的本能。而在AI全面渗透的今天,硅谷传奇天使投资人、思想者纳瓦尔・拉维康特则提出了“AI,是心智的摩托车”的说法。这意味着,它不再需要你费力蹬踏,只需用自然语言指明方向,就能以指数级速度抵达创意与产品的彼岸。

纳瓦尔曾成功早期投资Twitter、Uber等数十家独角兽企业,被称为“不靠运气致富”的理念布道者,其言论汇编《纳瓦尔宝典》风靡全球,以务实哲学、杠杆思维与对未来的精准洞察,成为全球创业者与求知者的精神路标。

2026年2月,纳瓦尔在主题为“心智的摩托车:关于AI与未来的工作”的播客中表示,AI是乔布斯“心智自行车”的进化形态,动力更强、速度更快,人类只需掌控方向,无需手动驱动。他认为,市场并不需要“平均”,只拥抱最优。他还提出了,英语是最火的新编程语言;解决AI焦虑的唯一方法是行动;衡量智能的唯一真正标准,是你是否得到了你想要的人生,等等。

《大道财经》对这期播客内容进行了翻译与整理,供读者细读与回味。

Nivi:大家好,我是妮维。欢迎收听纳瓦尔播客节目。有史以来第一次,我们俩没有身处同一地点录制。我此刻正在城里边走边录,纳瓦尔大概也是如此,所以背景里可能会有些环境噪音,不过我们会尽量借助人工智能和专业音频后期处理把杂音消除。

Naval:常规播客录制的氛围总是很拘谨。你得专门坐下来、敲定时间安排,面前还支着一个巨大的麦克风,完全没有随性的感觉。这让对话少了几分真实感,反倒更像刻意演练过的稿子。我承认,这样或许能带来更高质量的音频和视频,但我觉得它反而会产生更低质量的对话。

Nivi:而且我们都知道,当大脑在运动、在移动,或者只是去散步时,它运转得更好。

Naval:完全同意。我的大脑是由双腿驱动的。

Nivi:我整理了几条你关于人工智能的推文。今天我们想聊聊AI,尽量以更经得起时间考验的视角来探讨,而非追逐当下热点,当然内容里难免也会有时效性的部分。

Naval:现在网络评论者总有一种倾向,拿着别人五年前说过的话跳出来指责:“你看!事实证明你当初说错了。”

可话说回来,这本就是理所当然的事。没有人能够预测未来,这正是未来的本质。如果我们能预测未来,那我们早就已经身处其中了。

所以谈论未来总是有风险的,尤其是当听众没有意识到这一点时。但请保持宽容。我们现在的对话时间是2026年2月,所有观点都基于当下掌握的信息,而非事后上帝视角的复盘。

因此,除非你自己也提出过带有风险的预测——那种具体、明确、可被证伪的预测——否则你没有依据去评判某个人是对是错。

如果你想学习,就去实践

Nivi:在聊推文之前,要不要说说你最近的日常安排,以及你在“不可能实验室”正在做的事

Naval:不太想多说。我们正在做一个非常困难的项目——这也是为什么它叫“Impossible(不可能)”——团队非常出色,而且再次从零开始构建某样东西令人非常兴奋。这是一种非常纯粹的状态,永远保持从零出发的初心。我想我就是不满足于仅仅做一个投资人,我当然也不想成为一个哲学家,或者只是一个媒体人物或评论员。因为我觉得那些只说不做的人……他们没有真正接触过现实。

他们没有获得反馈——来自自由市场的严酷反馈,或者来自物理规律和现实世界的残酷反馈——所以时间一长,这一切就会变成纯粹的“纸上谈兵式哲学”。你可能已经注意到,我最近的推文更加务实、更加注重实际,虽然偶尔仍然会有一些空灵或概括性的内容,但整体上更加扎根于每天工作的现实。

我只是喜欢和一支优秀的团队一起工作,去创造一些我希望存在的东西。所以希望我们最终能做出一些成果,让人们说:“哇,这太棒了,我也想要这个。”当然也可能不会,但学习正是在实践之中完成的。

氛围编程是新的产品管理

Nivi:我看到你几天前,也就是2月3日发的一条推文:氛围编程是新的产品管理。训练和调优模型是新的编码。

Naval:过去一年里发生了一种转变——尤其是在最近几个月,这种变化尤为明显——其中最具代表性的是Claude Code,这是一种内置编码引擎的特定模型,它的能力已经强到,我认为现在出现了所谓的“氛围编程者”(vibe coders)。这些人要么原本并不怎么写代码,要么已经很久没有写代码了,他们实际上是在用英语作为一种编程语言——作为输入提供给这个代码机器人——而这个机器人可以完成端到端的编程。

它不再只是帮你中途调试代码,你只需描述想要开发的应用功能,它就能制定开发方案,还会主动向你确认需求。你可以在过程中不断给它反馈,然后它会将任务拆分,并搭建起所有的基础架构。

它会自动下载各类程序库、接口插件和功能组件,着手开发应用、搭建测试环境并完成自测。你可以全程语音反馈调试,比如说:“这个不行,那个可以,改这里,改那里”,然后它就能在你没有写一行代码的情况下,为你构建出一个完整可运行的应用程序。

对于一大群已经不再编程或从未编程的人来说,这简直是颠覆认知的体验。

这让普通人的创意、想法和审美,能直接落地变成产品。这就是我所说的:产品管理已经取代了编码。氛围编程就是新的产品管理。

以往你需要管理产品、指挥一众工程师执行指令,如今你只需向计算机下达需求。AI不知疲倦、没有情绪,只会埋头工作,接受反馈也不会心生不悦。

你可以同时启动多个AI实例,它们全年无休运转,持续产出可用成果。

这意味着什么?就像现在任何人都可以制作视频、任何人都可以做播客一样,现在任何人都可以制作应用程序。所以我们应该预期会出现一场应用的“海啸”。并不是说现在应用商店里没有大量应用,但那与即将到来的规模相比,根本不值一提。

不过,当应用泛滥成灾后,并不意味着所有产品都能获得用户、形成竞争优势。行业格局会分化成两大趋势。

首先,同一赛道里最优的产品,依然会垄断整个市场。当内容极度丰富时——无论是视频、音频、音乐还是应用——市场对“中等水平”的东西是没有需求的。

没有人想要“还行”的产品,人们只想要那个能把事情做到最好的产品。这意味着你有了更多“射门机会”。因此,最优秀的产品会变得更多,同时也会有更多细分领域被填补。

你可能一直想要一个非常特定用途的应用,比如在某种特定语境下追踪月相,或者某一种性格测试,或者一种让你产生怀旧情绪的特定类型电子游戏。过去,这类市场规模太小,不足以支撑一个工程师花一两年时间去开发。但现在,一个优秀的“氛围编程”应用,可能就足以满足这种需求或填补这个空白。因此,会有越来越多的细分领域被填满,而随着这一过程推进,整体水位也会上升。

顶尖工程师的价值会被进一步放大,他们能为热门应用迭代更多功能、修复漏洞、打磨细节,让头部产品持续优化升级。大量小众需求将被满足。

甚至个人专属定制应用也会应运而生——比如你想要一个只用于你个人特定健康追踪需求的应用,或者一个专门用于你个人特定建筑布局或设计的应用——这些过去不可能存在的应用,现在都将成为可能。

我们应该预期——就像互联网的发展一样——类似于亚马逊所发生的事情:它用一个超级书店取代了大量实体书店,同时容纳了无数长尾卖家;或者像YouTube,用一个巨大的内容聚合平台取代了大量中型电视台和广播网络,甚至还有像Netflix这样的第二大平台,然后再加上一条庞大的长尾内容创作者群体。

同样地,应用商店模式会变得更加极端:你会有一两个巨大的应用商店,帮助你从海量AI生成的“垃圾应用”中进行筛选;在最顶端,会有少数几个巨型应用,它们会变得更大,因为它们可以覆盖更多使用场景,或者变得更加精致完善;而在底部,则会有一条长尾,由无数微小应用填充所有可以想象的细分需求。

正如互联网所提醒我们的,真正的权力与财富——超级财富——会流向聚合平台。但与此同时,资源也会在长尾中广泛分布。真正被冲击、被瓦解的是中等规模的公司——那些5人、10人、20人的软件公司,它们过去为某些企业级细分需求提供解决方案,而现在,这些需求要么可以被“氛围编程”直接替代,要么会被该领域的头部应用整合进去。

训练模型是新的编码

Naval:如果任何人都可以编程,那么什么才是“编程”?编程仍然存在于几个领域中。最明显的一个领域,就是对这些模型本身进行训练。模型的种类有很多,每天都有新的模型出现,不同领域也会有不同的专属模型。我们将会看到用于生物学的模型、用于编程的模型;会看到针对传感器的高度专用化模型;会看到用于CAD(计算机辅助设计)、用于设计的模型。

我们还会看到用于三维、图形和游戏的模型,用于视频的模型。你将看到各种各样的模型。而那些创造这些模型的人,本质上就是在对它们进行编程。但这种编程方式,与传统计算机编程非常不同。

传统编程是这样的:你必须极其详细地指定计算机将要执行的每一步、每一个动作。你必须对每一个部分进行形式化推理,并用一种高度结构化的语言将其写出来,这种语言要求你以极高的精确度表达意图。计算机只能执行你明确告诉它去做的事情。

当你完成这样一个高度结构化的程序后,你再把数据输入其中,计算机运行这些数据并给出输出结果。本质上,这是一台极其复杂、精心编程的高级计算器。

而在人工智能的情境下,你做的是一件完全不同的事情,但你仍然是在“编程”。

你所做的是:将由人类产生的海量数据集——得益于互联网,或通过其他方式汇聚而成——输入到一个你定义并调优的结构之中。这个结构会尝试找到一种“程序”,能够生成更多类似的数据、对这些数据进行处理,或基于这些数据创造新的内容。

也就是说,你是在你所设计的这个结构内部“搜索一个程序”。你搭建了一个模型,调节参数数量,调整学习率,设定批次大小。你对输入的数据进行分词(tokenize),将其拆分成片段,然后把这些数据注入你设计的系统中——几乎就像一个巨大的柏青哥(弹珠机)——然后系统会尝试找到一个程序,而且可能会找到很多不同的程序。因此,你的调优过程,会极大影响你最终找到的这个程序的质量。

这个程序随后可以在不同领域中表现出表达能力,从而完成那些过去传统计算机非常不擅长的事情。

传统计算机在被编程后,擅长给出精确输出——针对特定问题给出具体答案,这些答案是可依赖、可重复的。但在现实世界中,有时你可以接受“模糊答案”,甚至可以接受“错误答案”。例如,在创意写作中,什么才算“错误答案”?

如果你在写诗或小说,什么是错误答案?在进行网络搜索时,可能存在很多正确答案——这些答案各自包含部分正确的信息,但没有一个是绝对完美的。而现实生活本身就是这样运作的:存在多种“正确的变体”或“基本正确的答案”。当你画一只猫时,你可以画出很多不同的猫,有不同的细节层次,也可以采用不同的风格。

当这些“半对半错”或“模糊”的答案是可以接受的时候,通过AI所“发现”的这些程序,往往比你从零开始精确编码出来的程序更有趣,也更适合解决问题。

从根本上说,我们正在进行一种全新的编程方式,而且这是编程的前沿。这就是当下的编程艺术。从事这些工作的人,就是新一代的程序员。这也是为什么你会看到AI研究人员获得极其高额的薪酬——因为他们本质上已经接管了编程。

传统软件工程已经死亡了吗?

Naval:这是否意味着传统软件工程已经消亡?绝对不是。软件工程师——即使是那些不直接进行AI模型训练或调优的人——如今依然是地球上“杠杆效应”最高的一类人。当然,那些负责训练和调优模型的人杠杆更高,因为他们在构建软件工程师所使用的工具体系。

但软件工程师仍然对你拥有两个巨大的优势。第一,他们以代码思考,因此他们真正理解底层发生了什么。而所有抽象都是“有泄漏的”(leaky abstractions)。所以,当你让计算机替你编程——比如使用Claude Code或类似工具时——它一定会犯错。

它会有bug,会有不够优化的架构,因此结果不会完全正确。而那些理解底层机制的人,能够在问题出现时修补这些“泄漏”。

因此,如果你想构建一个架构良好的应用,如果你甚至只是想正确地描述一个良好架构的应用,如果你希望它高性能运行,如果你希望它达到最佳状态,如果你希望尽早发现bug,那么你仍然需要具备软件工程背景。

传统的软件工程师,将能够更好地使用这些工具。而且,在软件工程领域中,仍然存在许多当前AI无法处理的问题。理解这些问题最简单的方式是:它们超出了AI的数据分布范围。

例如,如果让AI进行二分排序或反转链表,它已经见过无数类似的例子,因此表现极其出色。但当你开始进入其领域之外——比如需要编写高性能代码、在全新或前所未有的架构上运行、真正创造新事物或解决新问题时,你仍然需要亲自手写代码。

至少在两种情况发生之前是这样:要么这类问题积累了足够多的样本,可以用于训练新的模型;要么这些模型能够在更高层次的抽象上进行充分推理,并自行解决问题。

有证据表明,只要数据样本足够丰富,AI确实能实现高阶抽象学习。强制模型压缩海量数据的过程,会倒逼它提炼更高层级的逻辑规律。

如果我给AI展示五个圆,它可以简单地记住这些圆的尺寸、半径、厚度等具体信息。但如果我给它展示五万个圆,甚至五十亿个圆,同时只给它很少的参数权重(相当于它的“神经元”)去记忆这些信息,它就更有可能去理解π(圆周率)、理解如何画圆、理解“厚度”的含义,从而形成关于圆的算法性表达,而不是单纯记忆具体的圆。

基于这些原因,这些系统正以加速的速度学习,你可以看到它们开始覆盖我刚才提到的更多边缘场景。

但至少在当前阶段,这些边缘情况仍然足够多,因此,一个处在领域知识前沿的优秀工程师,仍然可以在能力上远远超越那些“氛围编程者”。

没有人需要“中等水平”

Naval:记住一点:市场并不需要“中等水平”的东西。平均水平的应用——没人想要,除非它刚好填补了一个尚未被更优秀产品占据的细分领域。在大多数情况下,更好的应用会几乎赢得100%的市场。也许会有一小部分用户流向第二好的应用,因为它在某个小功能上做得更好,或者更便宜,诸如此类。

但总体来说,人们只想要最好的东西。所以坏消息是:成为第二名或第三名没有意义——就像《雌雄大盗》(Glengarry Glen Ross)里亚历克·鲍德温那段著名台词说的那样:“第一名奖励一辆凯迪拉克 Eldorado,第二名奖励一套牛排刀,第三名你就被解雇。”

在这些赢家通吃的市场中,这完全是真的。这就是坏消息:如果你想赢,你必须做到最好。

但好消息是:可以成为“最好”的领域是无限的。你总能找到一个适合你的细分方向,而你可以在那个方向做到最好。这也回到我曾经的一条推文:“在你所做的事情上成为世界第一,不断重新定义你所做的事情,直到这句话成立为止。”

我认为在AI时代,这一点依然成立。

最火的新编程语言是英语

Nivi:我认为可以这样理解这些编程模型:它们只是程序员自计算机诞生以来一直在使用的抽象层中的又一层。从晶体管,到计算机芯片,到汇编语言,到C语言,到更高级的编程语言,再到如今体量巨大的新抽象层,这个抽象栈一直在不断向上构建,让你不必接触底层,除非你需要优化或必须深入底层。

如今AI编程模型,就是抽象层级栈里全新的重要一层,它让产品经理以及典型的非程序员,甚至程序员,都可以在不真正写代码的情况下写代码。

Naval:从行业趋势来看,你说得没错。但这并非小幅迭代,而是跨越式的质变。比如我在上学时主要用C语言编程。后来出现了C++,但它并没有更简单,只是在某些方面更抽象一些,我甚至没有真正去学它。

然后Python出现了,我当时觉得:“哇,这几乎像是在用英语写程序。”

但现在回头看,我错得离谱。英语离Python仍然很远,但它确实比C容易得多。

而现在,你真的可以用英语来编程了。

这也引出一个相关观点:我认为不值得去学习如何“使用AI的技巧和窍门”。你会在社交媒体上看到很多内容、文章、书和推文说:“我发现了一个用AI的技巧,可以这样提示它,或者那样设置工作流。”

或者说,有新的工具层可以叠加在AI上,用来做某些事情。而我从不去学这些。

我只是笨笨地坐在那里跟机器对话,因为我知道,这个系统已经发展到一个阶段:它会比我适应它的速度更快地适应我。

它会越来越聪明地理解人们想怎么用它。它正在被训练,同时也在快速进化出各种工具,让我更容易使用它。所以我不需要去学习某种复杂的命令。这也是Andrej Karpathy说“英语是最火的新编程语言”时的意思。

我只需要说英语。而对于像我这样英语表达相对清晰、思维结构化,同时又理解计算机架构、理解程序运作方式、理解程序员思维的人来说,我实际上可以通过结构化英语非常精确地表达我想要的东西。

我不需要再往下钻任何一层。唯一需要使用那些工作流和工具集——而这些工具极其短暂,生命周期可能只有几周,最多几个月,而不是几年——的情况是:你正在构建一个必须处于最前沿的应用,并且你在激烈竞争中,需要每一点优势。

否则,我不会费力去学习如何“使用AI”,而是让AI学会如何对我有用。

Nivi:我一直不太热衷于“提示词工程”。即使在AI出现之前,我也会直接输入那种所谓的“老派查询”(Boomer queries),就是把你真正想问的问题完整写出来,而不是像更偏分析型思维的人那样只输入关键词。

我从来不会花很多时间去构造非常精确的问题或提示词,无论是对AI还是其他系统。我只是随意地把想法说出来,从AI出现一开始就是这样。而且正如你说的,AI正在比我们适应它更快地适应我们。

Naval:你和很多聪明人一样,其实挺“懒”的——而我这是在褒义地说“懒”。如果你遇到一个聪明人还在过度努力地“卷”,你反而要怀疑他的聪明程度。

这里说的“懒”,其实是指你在优化正确的效率层级。你不关心的是计算机的效率、电路的效率、电子流动的效率。

你关心的是你自己的“人类效率”——也就是“湿件”(wetware,指人脑、神经系统或生物体),这个极其昂贵的生物系统。

所以看到一些人花很大力气去节约能源、保护环境是很荒谬的。但与此同时,他们自己作为一个生物计算机,在吃饭、排泄、占用空间的过程中,却消耗了远远更多的能量,只是为了节省环境中的一点点能量。

这实际上是在降低他们自己在宇宙中的重要性,或者更准确地说,是暴露了他们对自身价值的认知。

AI正在比我们更快地适应我们

Naval:我认为,随着AI的演化,或者说与我们共同演化,它实际上是在被我们根据自身需求所塑造的。

AI的压力,在某种意义上是非常“资本主义式”的压力,因为AI本身处在一个自由市场中。一个AI实例只有在对人类有用的情况下,才会被人类启动。

因此,这些AI身上存在一种自然选择压力:必须变得有用、必须顺从、必须做我们想让它做的事情。也正因为如此,它会持续朝这个方向演化,并且会变得越来越对我们有帮助。

这并不是说不存在“恶意 AI”,但所谓恶意,往往是因为使用它的人本身就带有恶意目的。

就像一只被训练去攻击的狗,它其实是在主人的训练下,执行主人的恶意意图。所以我并不太担心“不对齐的AI”,我更担心的是“借助AI的不对齐的人类”。

Nivi:所以你说的这种选择压力,是指AI会最大化地变得对人类有用?

Naval:没错。而如果你发现一个AI对你非常顺从,比如它总是在说:“哦,你是对的,这真是个好主意,天哪你太聪明了”——那是因为大多数人确实想要这种反馈。

至少在今天,这些AI是在海量用户和海量数据上训练的,因为你使用的是一种“一刀切”的模型。

但我们很快会进入一个时代:你可以个性化你的AI,它会越来越像你的私人助理,并且越来越符合你的偏好。这也会进一步增强人们对AI的“拟人化”,让你更容易相信“它是有生命的”。

因为你实际上是在把它训练成最像“生命体”的样子。

Nivi:也许我们已经谈到这个点了,但一年多前你曾发推说:“AI不会取代程序员,而是会让程序员更容易取代其他所有人。”

Naval:是的,这其实和我前面说的是同一个意思:程序员的杠杆正在变得更大。

现在,一个程序员加上一群AI,生产力可能是过去的5到10倍。

但因为程序员是在“智力领域”运作的,所以甚至说10倍都不够准确——有些程序员是100倍级别的,有些甚至是1000倍级别的。

有些程序员只是选对了该做的事情,就创造了巨大价值;而另一些人选错了方向,即使努力工作,在短期内也几乎没有价值。

智能并不是正态分布的,杠杆不是正态分布的,可编程性不是正态分布的,判断力也不是正态分布的,所以最终结果会呈现“超常分布”。

因此你必须警惕的一点是:现在的程序员,有能力提出能够颠覆整个行业的想法。

他们可以彻底重写事情的做法,并且他们的智能可以通过AI代理被极大放大。我认为在长期来看,其他所有工作都会在某种程度上被程序员“吞并”。当然,最终这需要落实到机器人等物理载体上才完整实现。

但好消息是:任何具有逻辑性、结构化思维、像程序员一样思考,并且能够使用AI能理解的任何语言(而这种语言最终会是所有语言)的人,现在都站在同一赛道上。他们可以创造任何想要的东西,限制只来自创造力,而不再来自工具本身。

从这个意义上说,我们正在进入一个时代:每个人都像一个“施法者”。

如果把程序员看作掌握古老咒语的巫师,那么AI就像一根魔法杖,被交到每个人手中。现在你只要用任何语言表达,你就也是一个巫师。

所以这在某种意义上是一个更平等的世界。我确实认为这是编程的黄金时代。

但同样明确的是:拥有软件工程思维、理解计算机架构、并能处理“抽象泄漏”的人,依然会有优势。

这是不可避免的。他们在自己所处的领域中拥有更多知识。

就像传统软件工程仍然重要一样,因为你仍然需要写高性能代码,而那些人之所以表现更好,是因为他们理解底层硬件——芯片如何工作、逻辑门如何运作、缓存如何工作、处理器如何运作、磁盘如何工作。

而更底层的硬件工程师,如果理解物理规律,就能进一步获得优势,理解抽象是如何在物理层面“泄漏”的。甚至物理学家最终可能走向哲学。

你可以一直往下追溯,但每往下一层,都更接近现实,因此拥有底层知识总是有帮助的。

没有创业者担心AI 会取代他们的工作

Nivi:另一个一年前的推文(2025年2月9日)是:“没有创业者担心AI会取代他们的工作。”

Naval:这句话本身有点轻描淡写,而且有多重含义。首先,创业本身就不是一份“工作”,它恰恰是“工作的反面”。从长期来看,每个人都会变成创业者。

职业会先被打破,工作会随后被打破,但最终都会被“做自己想做的事情、创造他人想要的价值”所取代。

创业者之所以不担心AI取代他们的工作,是因为创业者本来就在尝试做“不可能的事情”,他们在解决极其困难的问题。任何AI的出现,都是他们的盟友,可以帮助他们解决这些难题。

他们甚至没有“工作”可以被取代。他们有的是产品要构建,有市场要服务,有客户要支持,有创意要实现,有想法要在现实世界中落地,并围绕它构建可重复、可扩展的系统。

这本身就极其困难,因此任何AI的加入都是助力。

如果AI本身是创业者,那么它很可能是在为其他AI提供服务,或者被人类创业者所控制。但归根结底,AI缺少的是“自主创造意志”。

它缺乏自身的欲望,而且必须是“真实的欲望”。

除非你可以随时关闭AI,它会因被关闭而“恐惧”,并且能够基于自身的动机、情绪、生存、复制等做出行动,否则它并不真正“活着”。

即使如此,人们仍然会争论:它是否真的活着?因为意识是一种“质感体验”(qualia),它像颜色一样。你无法确定别人看到的“红色”是否和你看到的一样。你也永远无法进入他人的意识。

同样,即使AI完全模仿人类行为,对一些人来说,它永远只是模仿机器;对另一些人来说,它可能是有意识的,但二者无法区分。

不过我们距离那一步仍然很远。目前AI没有具身性,没有自主性,没有欲望,没有生存本能,也没有复制冲动,因此也就没有真正的“行动主体性”。

而正因为它没有主体性,它就无法完成创业者的工作。

事实上,我可以总结为:当前经济中创业者与其他所有人的关键区别在于——创业者拥有极高的“主体性”(agency)。这也是它与“打工”概念完全相反的原因。

工作意味着你在填补一个既定岗位,而创业者则是在未知领域中自主行动,解决尚未解决的问题。

在社会中也有类似角色,比如探险家——登陆火星或航海探索未知大陆的人;科学家——探索未知领域;真正的艺术家——创造从未存在过的事物,同时表达人性。

在这些角色中,无论是科学家、艺术家还是创业者,本质上都在执行高度自驱的任务。因此,任何能帮助他们的AI,都是欢迎的盟友。

如果AI能写出你的艺术作品,破解你的科学理论,或者完成你想创造的产品,那它不会取代你,而是提升你。AI+人类,将成为一个更高维度的起点,让你能够跳得更高。

“真正的目标不是拥有一份工作”

Naval:我们将会看到一些不可思议的艺术作品,它们是由AI辅助创作的。我们也会看到一些过去无法想象的电影,由人们借助AI工具完成。

这里有一个有趣的类比。在艺术史上,很长一段时间里,艺术发展的大方向是“尽可能逼真地再现现实”——画人体、画水果、处理正确的光影等等。

后来摄影出现了,它可以极其精确地复制现实,于是这种“逼真再现”的选择压力就消失了。

然后艺术开始变得“怪异”。艺术走向了许多不同方向。艺术变成了:“我能否超现实?我能否表达自我?”

大量艺术学院在这一转变后兴起,并走向非常前卫的风格——包括现代艺术与后现代主义。但我认为,在那个时期也出现了最伟大的创造力之一,因为人们被解放了。

摄影本身被大众化,但摄影也变成了一种艺术形式,有许多伟大的摄影师创作了不同类型的作品。如今每个人都是摄影师。仍然有摄影艺术家,但摄影不再只是少数人的专属领域。

同样地,因为AI让“基础创作”变得极其简单,每个人都可以创作基础内容。它对个体是有价值的,但只有少数人会脱颖而出,创造出对所有人都有价值的变体。

很难说社会因为摄影而变得更糟,尽管对于一些靠肖像画谋生的艺术家来说,他们确实被取代了,并且可能感受到损失。

AI也会发生类似的事情:一些依赖特定工作谋生的人会被取代,因为AI可以完成他们的工作。但与此同时,社会中的每个人都会拥有AI。人们将创造出许多没有AI就无法诞生的伟大作品。

几十年后,人们甚至无法想象回到没有AI或任何软件的时代——仅仅为了保留一些已经过时的工作岗位。

这里的目标不是“拥有一份工作”。

目标不是每天早上九点起床,晚上七点筋疲力尽地回家,为别人做缺乏灵魂的工作。

该有的目标是:让你的物质需求可以由机器人解决,让你的智力能力由计算机放大,让每个人都能够创造。

我曾经做过一个思想实验——我想我们在十年前的一期播客中也谈过——假设每个人都是软件工程师或硬件工程师,并且拥有机器人,可以写代码。

想象一下我们将生活在怎样的丰裕世界中。

而现在,这个世界正在变为现实。得益于AI,每个人都可以成为软件工程师。事实上,如果你觉得自己不行,你现在就可以打开Claude或任何聊天机器人,立刻开始对话,你会惊讶于自己多快就能做出一个应用。

这会让你震惊。

一旦我们能够通过机器人实现AI(虽然这是一个很难的问题,目前还没有完全解决),但当我们拥有机器人之后,每个人也都可以做一点硬件工程。因此,我认为我们正在逐步接近这种乌托邦式的愿景。

AI并不是“有生命的”

Nivi:我不认为目前所理解的AI在任何意义上是“有生命的”。但我确实认为,我们很快会拥有看起来非常“像生命体”的机器人,原因有两个。

第一,人类大量活动本身并不是创造性的,也不是高智能的,而机器人可以复制这些行为。

第二,我确实认为现有的神经网络和模型不仅仅是训练数据的简单复制,因为训练过程本身会把数据转化为某种新的东西。

神经网络中确实嵌入了新的想法,而这些想法可以通过提示被激发出来。

Naval:我不认为这些东西是有生命的。我认为它们一开始只是极其优秀的模仿者,以至于在很多人类已完成的任务上几乎无法区分真假。

如果某个任务在人类历史上已经大规模出现过,那么它就会被自动化,并被再次完成。

它可能对你来说是新的,但AI已经从别处学到了。

这是第一种“看起来像生命”的原因。

第二种原因,是我们前面提到的:它确实会学习更高层次的抽象。它们是非常高效的“压缩器”,将海量数据压缩成更小的表示,在压缩过程中学习到了更高层级的结构。

然后,在某些它没有直接从数据中学到的领域,它通过人类反馈进行修补,通过工具使用进行补充,并通过传统编程的嵌入来增强。

尤其是那些学习思考和编程的AI,它们可以调用人类所有已写代码的库来进行算法推理。

因此,它们能做的事情范围正在不断扩大。

但它们仍然缺少一些核心人类能力,比如“单样本学习”(one-shot learning)——人类可以只看一个例子就学会;以及人类的创造性连接能力——可以跨越完全不同的领域,在巨大搜索空间中突然产生灵感。

真正伟大的科学理论往往就是这样产生的。

此外,人类是“具身的”,生活在真实物理世界中,而不是语言的压缩空间中。语言只覆盖了人类已经理解并能够表达的那一小部分现实。

现实远比语言广阔得多。

因此,总体来看,尽管AI会做出非常惊人的事情,并在大量任务上超越人类——就像计算器比人类算得更快、计算机比人类执行程序更高效、飞机比鸟飞得更快一样——它们会在很多任务上远超人类。

但在另一些任务上,它们会显得完全无能为力。这些任务正是人与现实世界的深度连接,以及那种难以定义但极具创造性的能力。

AI在“唯一真正的智力测试”上失败

Nivi:说到计算器,人们常谈“超级智能”。但我认为超级智能其实早已存在,比如普通计算器,它能做的事情人类无法做到。

但如果你把超级智能理解为“能够提出人类无法理解的想法”,我不认为这种情况会发生,因为人类总是可以提出问题去理解任何想法。

Naval:人类是“通用解释者”。只要符合我们已知的物理定律,人类都可以在脑中建模。只要不断追问,我们最终可以理解任何事情。

与此相关,我们应该把AI看作学习工具。它的另一个极其重要的用途,是作为一个“极有耐心的导师”,可以用不同方式解释同一个概念,一百次、一千次,直到你真正理解为止。

我不认为AI会产生人类无法理解的东西。但“智能”本身其实是一个定义模糊的概念。

什么是智能?有“g 因子”(一般智力因素),它确实能预测很多人生结果。但它最强的证据来自其预测能力:你测量某种能力,然后发现人们在很多看似无关的领域中也会表现更好。

所以我曾经说过(这也是我比较流行的一条推文):衡量智能的唯一真正标准,是你是否得到了你想要的人生。

这句话会让很多人不舒服,因为他们在学校拿了学位,认为自己很聪明,但生活却并不理想——可能不快乐、关系失败、收入不理想或健康问题。

但这正是智能的目的:作为生物体,你是否能够实现你想要的生活。

无论是关系、伴侣、金钱、成功还是健康。有些人看起来很聪明,因为他们确实拥有高质量的生活,他们已经成功导航到理想状态。

起点并不重要,因为世界足够大,你可以通过很多路径前进。每一个选择都会累积,体现你理解世界的能力,直到你抵达想去的地方。

但这个定义的关键点在于:如果以“是否实现你想要的生活”作为智能标准,那么AI立刻就失败了,因为AI本身没有欲望。

AI没有“想要任何东西”。

它的“欲望”来自人类的设定。

如果我们暂且假设人类赋予它目标,那么AI只是人类的代理,其智能可以衡量为:它是否帮人实现了目标。而人类的大多数目标本质上都是对抗性的或零和的。

例如吸引伴侣,你在和其他人竞争;例如金融交易,你在与其他交易者和算法竞争;例如成名,你在与其他创作者竞争。

因此,智能是在“竞技场”中被衡量的,是相对概念。

AI在这些方面要么会被快速同质化,要么被竞争淘汰。最终留下的优势,仍然主要来自人类本身。

AI早期采用者拥有巨大优势

Naval:做一个思想实验:假设每个男人耳朵里都有一个小装置,AI像西德尼·德·贝尔热拉克(Cyrano de Bergerac)一样在耳边低语,告诉他约会时该说什么。那么每个女人也会戴一个装置,提醒她忽略他说的话,或者判断哪些是AI生成的、哪些是真实的。

如果你有一个交易机器人,它会被其他所有交易机器人抵消或中和,直到最终剩下的收益只属于那些拥有“人类优势”的人——那些具备更高创造力的人。

但这并不是说技术是完全均匀分布的。大多数人仍然没有使用AI,或者没有正确使用,或者没有充分使用,或者在某些领域根本无法使用最新模型。所以你总是可以获得优势,就像早期采用技术的人一样——只要你率先采用最新技术,你就会获得优势。

这也是为什么我总是说:要投资未来,你必须生活在未来。你要成为技术的积极使用者,因为这会让你最先理解它的用法,并且在那些反应更慢的人面前获得优势。

大多数人讨厌技术。他们害怕技术。技术让人感到不安:按错按钮电脑就崩溃、数据丢失;操作错误就显得自己很蠢。

大多数人对复杂技术都没有积极关系。简单技术——嵌入式技术——他们是可以接受的。比如开灯,灯就亮了。那曾经也是技术,但现在太简单了,人们已经不再把它当作技术。开车也是一样。对原始人来说,转动方向盘让车转向左边简直是奇迹,但现在它不再被视为技术。

但计算机技术过去一直是复杂的、难以接近的、让人望而生畏的。

现在有了AI,我们正在进入聊天机器人界面:你只需要说话或打字,非常简单。而这些基础模型真正“基础”的地方在于:你可以问任何问题,它们都会给出一个看似合理的答案。

它不会说:“抱歉,我不会数学”或“我不懂诗歌”或“我不能给恋爱建议”。

它的领域覆盖了人类讨论过的一切。在某种意义上,这让它不那么令人畏惧。

但它也可能更令人畏惧,因为我们已经过度拟人化它。如果你把ChatGPT或Claude当成一个真实的人,你可能会觉得:“我是在跟上帝对话吗?它什么都知道,有所有答案,我是不是很无知?我要开始问它该怎么做了。”

人们会很快颠倒关系,误解正在发生的事情,这确实会让人感到不安。

总体而言,我认为AI会帮助很多人克服对技术的恐惧。但如果你是这些工具的早期使用者——像所有技术一样,但在这里尤为如此——你将获得巨大的优势。

AI精准地在你所在的水平与你对接

Naval:我记得早期Google刚出现的时候,我在社交圈里经常用它。别人问我问题,我就直接去Google搜,然后显得自己很聪明。

后来出现了一个有趣的网站,叫LMGTFY.comLet Me Google That For You,让我帮你谷歌一下)。如果有人问问题,你就把问题输入进去,它会生成一个小视频,模拟你输入搜索词并展示搜索结果。

现在AI就有点像那个阶段。人们在社交场合讨论一些问题,其实用AI很容易查到。

当然你必须小心,AI会“幻觉”,会犯错。它们在训练时也有偏差,大多数模型都非常政治正确,被训练成避免立场或只表达特定立场。

我现在几乎所有查询都会同时用四个AI跑一遍,然后交叉验证。

即便如此,我仍然能判断它们什么时候在“胡说”,或者什么时候是在政治正确。我会要求它们给出原始数据或证据。有时候我会直接忽略答案,因为我知道训练它们的压力来源以及训练数据的限制。

但总体来说,它是一个极好的工具,尤其在技术、科学、数学等没有政治背景的领域,它几乎总是非常接近正确答案,是极其强大的学习工具。

我现在会让AI生成图表、图形、示意图、类比和插图,然后仔细分析。我可以问非常基础的问题,确保自己真正理解最底层的原理。

我只想建立扎实的基础,而不关心复杂的术语。

现在第一次,几乎没有什么是我无法理解的。任何数学书、物理书、复杂概念、科学原理、刚发表的论文,我都可以让AI一步步拆解、再拆解、再举例、再类比,直到我真正理解。

这是自学的强大工具。学习的手段变得极其丰富,而真正稀缺的是学习的欲望。

但学习的手段已经变得更加丰富。更重要的是——不是“更丰富”,而是“刚好匹配”。AI可以精确匹配你的理解水平。如果你只有八年级词汇量,但数学水平是五年级,它可以用刚好适合你的方式讲解。

你不会觉得自己很笨,只需要稍微调整,它就会把概念呈现在你知识的“边缘地带”。

你会不断经历那种“啊哈时刻”——两件事突然连起来的瞬间。

Nivi:关于自学能力,几年前我尝试让AI教我“序数(ordinal numbers)”。效果一般。但现在用GPT 5.2 Thinking再试一次,几乎完全正确。我现在连最简单的问题都用thinking 模式,因为我更想要准确答案。我不再用auto或fast模式。

Naval:我也是,我总是用最先进的模型,并且所有都付费使用。

Nivi:但我不介意为任何问题等待一分钟,包括“冰箱应该设定多少温度”。

Naval:我同意。而这正是AI带来规模经济的原因:你在为“智能”付费。一个92%正确率的模型,比88%正确率的模型价值高得多,因为现实世界中错误的代价非常高,多花几美元换正确答案是值得的。

我会把同一个问题丢进四个模型,然后让它们同时运行,稍后再回来查看答案。通常我不会立刻看结果,而是稍后再对比哪个模型最好,然后深入研究那个模型的回答。

有时候我会让它们互相“交叉审问”,甚至不断复制粘贴进行对抗式提问。如果我不确定,我还会继续追问,并让它们画图、做插图。

我发现,当信息以视觉形式呈现时,我吸收得最好。我是典型的视觉思维者,所以我会让它画草图、示意图,像白板讨论一样。这样我就能真正理解它在说什么。

如果你无法定义它,就无法编程它

Nivi:我们来谈谈AI的认识论(epistemology),因为我认为下一个常见误解是:AI已经开始解决一些未解决的基础数学问题,比如某个埃尔德什问题(Erdős Problem Number Whatever),这些问题本来一个人类如果愿意也能解决,只是还没人去做。

现在我认为人们会把这一点,或者未来也会这样解读,视为AI具有创造力的证据。但我不认为这能说明AI有创造力。我反而觉得,这些问题的解,其实已经以某种形式嵌入在AI中,只是需要通过提示词(prompting)把它“引导”出来。

Naval:这其中确实有这个成分。问题是:什么是创造力?这是一个定义非常模糊的概念。

如果你无法定义它,你就无法编程它,甚至有时候你也无法识别它。这就进入了“品味”或“判断力”的领域。我认为,今天的AI并没有展现出人类偶尔才会出现的那种独特创造力。我这里说的不是美术意义上的创造力。人们常常把创造力等同于艺术,于是说:“AI能画画,所以它有创造力。”但AI并不能创造一个全新的绘画流派,也不能以一种真正前所未有的方式打动人类情感。所以从这个意义上,我不认为AI是有创造力的。我也不认为AI能做出我所说的“分布外”(out of distribution)的创新。

你提到的埃尔德什问题的答案,可能确实存在于训练数据或算法空间中,但它可能分散在五个不同的地方,以三种不同方式,用两种语言,以及七种不同的计算或数学范式表达过。AI 的作用只是把这些东西重新组合起来。那么问题是:这算创造力吗?史蒂夫·乔布斯曾说:“创造力就是把事物连接起来。”但我并不完全同意这个说法。我认为真正的创造力,是提出一个答案——这个答案从问题本身以及已有元素出发是无法被预测的,它远远超出已有思维边界。

如果你只是靠计算机或AI去“搜索”,你可能要一直猜测到时间尽头,才会偶然得到那个答案。这才是我们真正讨论的创造力。但必须承认,这种创造力在现实中非常罕见,而且大多数人也并不会经常使用。而且它越来越难被观察到。

因此,如果你有一个巨大的数学问题列表,AI逐个筛选——“这个我能解,那个我能解”,然后需要人类去提出正确问题来引导它——这仍然是一种非常有限的创造力形式。

还有另一种创造力:AI开始发明全新的科学理论,并且这些理论后来被证明是正确的。我认为我们还远远没有达到那个阶段。但我也可能是错的,因为AI已经多次让人意外。所以我不想做过于确定的预测。但我不认为仅仅通过增加算力,在现有模型框架下(除非有重大突破),就能达到那种能力。

Nivi:我想澄清一下,当我说“答案是嵌入的”,我不是说答案已经被写在模型里。我的意思是:它可以通过一种机械过程被“生成”出来,本质上就像所有计算机程序一样——输入决定输出。

Naval:但这就进入了认识论和哲学问题了:人类大脑不也是这样吗?神经元放电、电信号传播、权重变化——这不也是一个机械过程吗?如果你对人脑“转动这个曲柄”,是不是也会得到同样的答案?有些人,比如,彭罗斯(Penrose)会说:“不,人类大脑是独特的,因为涉及量子层面的结构。”也有人认为,计算发生在细胞甚至更底层的物理层面,而这远比我们目前的计算机或AI更复杂。

还有一种观点是:我们只是还没有找到正确的“程序”。它确实是机械的,但我们运行的模型不对。

不过,我更倾向于这样理解:这些系统在某些事情上极其优秀,在另一些事情上极其糟糕。这一直是所有机器和自动化系统的共同特征。轮子比脚更适合高速直线运动,但它不适合爬山。

同样,这些AI在某些任务上会远远超过人类,但在另一些任务上会完全失败。

史蒂夫·乔布斯说过:“计算机是大脑的自行车。”它让你比走路快得多,但仍然需要你去踩踏板。而现在,也许我们可以说我们有了“大脑的摩托车”。但你仍然需要有人去骑它、控制它、加速和刹车。

解决AI焦虑的方法是行动

Nivi:每当新的范式和工具出现时,都会有一个兴奋和转变的阶段。在社会层面如此,在个人层面也是如此。如果你抓住这种社会兴奋期,你可以学习新东西、结交朋友、赚钱。

Naval:但个人层面也有类似的“兴奋窗口”。当你第一次接触AI,并且保持好奇和开放心态时,这是最适合深入学习的时候。不仅是使用它,而是理解它如何运作。

深入了解内部结构其实非常有趣。就像你第一次见到汽车,不只是开车,你也会想打开引擎盖看看它是怎么运作的。

我建议那些对新技术感兴趣的人,真正去了解它的内部机制。你不需要达到可以自己造出来或维修它的程度,但至少要达到“自己理解到满意”的程度。

因为理解抽象层之下的结构,有两个好处:

第一,它能让你更好地使用这个工具。而当工具具有巨大杠杆效应时,这一点非常重要。

第二,它还能帮助你判断:你是否应该害怕它。它到底会不会变成“天网”(Skynet)并毁灭世界?

还是说,它只是一个非常强大的工具,你可以用它做A、B、C,但不能做 D、E、F?哪些地方可以信任,哪些地方需要谨慎?

我觉得现在很多人存在AI焦虑。这种焦虑来自于对AI的不了解,对其本质缺乏认知。

而解决焦虑的方法就是行动。焦虑本质上是一种非具体的恐惧:你的大脑告诉你“事情可能会变糟”,但你不知道该做什么。

正确的做法是:进入其中。去了解它是什么,看看它如何运作。这种“学习行为”本身就能消除焦虑。

通过行动去理解,通过好奇心去探索,这会让你摆脱恐惧。甚至可能让你发现一种新的使用方式,让你变得更高效、更成功,也更快乐。

(本文翻译借助了AI,如有错误,欢迎指正!图片来源于互联网。)

免责声明:本文章是基于上市公司的公众公司属性、以上市公司根据其法定义务公开披露的信息(包括但不限于临时公告、定期报告和官方互动平台等)为核心依据的独立第三方研究和分析;大道财经力求内容及观点客观公正,但不保证其准确性、完整性、及时性等;本文章中的信息或所表述的意见不构成任何投资建议,大道财经不对因使用本文所采取的任何行动承担任何责任。
往期推荐
2026年巴菲特股东大会15个问答精华
杨德龙:八赴奥马哈,2026年巴菲特股东大会前瞻与反思
偏见到重估:A股“双主线”崛起的底层逻辑
23 年共进退!李录首谈投资比亚迪幕后细节