乐于分享
好东西不私藏

黄仁勋:英伟达的护城河是什么,AI未来不是硬件堆砌而是算法与生态的胜利

黄仁勋:英伟达的护城河是什么,AI未来不是硬件堆砌而是算法与生态的胜利
英伟达CEO黄仁勋最近接受了美国知名科技播客主持人德瓦克什·帕特尔(Dwarkesh Patel)的专访,全面回应了关于公司护城河、谷歌TPU竞争、对华芯片出口等关键议题。
以下为黄仁勋专访全文:

英伟达最深的护城河是对稀缺供应链的掌控力吗?

主持人: 我们看到许多软件公司的估值暴跌,因为人们预期人工智能会将软件商品化 (Commoditize)。这里有一种略显天真的看法:你看,英伟达向台积电发送 GDSII 文件,台积电制造逻辑芯片 (Logic Dies) 和交换机,然后将它们与 SK 海力士 (SK Hynix)、美光和三星制造的 HBM (高带宽内存) 封装在一起。接着,这些组件被送到台湾地区的 ODM 厂商那里组装成机架。因此,英伟达本质上是在做“软件”,而制造环节都是别人代工的。如果软件被商品化了,英伟达会被商品化吗?

黄仁勋: 万物到最后,总得有某种机制把电子 (Electrons) 转化为 Token (词元)。这个将电子转化为 Token,并让这些 Token 随着时间推移不断增值的过程,是无可替代的。我认为这极难被彻底商品化。

将电子转化为 Token 是一段不可思议的旅程。这就好比让一个分子的价值超越另一个分子,或者让一个 Token 的价值超越另一个 Token。

赋予这个 Token 价值的过程,蕴含着海量的艺术、工程、科学和发明创造,而我们眼下正实时见证着这一切的发生。

这种转化、制造以及其中涉及的所有科学知识,还远远没有被彻底摸透,这段旅程也远未结束。所以我怀疑你说的“商品化”不会发生。当然,我们会让这个过程变得更加高效。事实上,有关英伟达的一切,或者说你刚刚提问的方式,恰恰就是我对我们公司的心智模型 (Mental Model)。

输入的是电子,输出的是 Token,而英伟达就身处其中。 我们的职责是:尽全力做好必做之事,少揽非必要之活,从而赋予这种转化过程不可思议的强大能力。我所说的“少揽非必要之活”,指的是凡是我不需要亲力亲为的事情,我就交给合作伙伴,将其纳入我的生态系统去完成。看看今天的英伟达,我们可能拥有全行业最庞大的合作伙伴生态系统,涵盖了上游供应链、下游供应链、所有的计算设备公司、所有的应用开发商以及所有的模型制造商。

人工智能就像一块五层蛋糕,我们在每一层都构建了生态系统。因此,我们尽量“少做事”。但事实证明,我们必须做的那部分核心工作,难度高得极其离谱 (Insanely hard),我不认为这部分会被商品化。

事实上,我也不认为企业软件公司或工具制造商很容易被商品化。今天大多数软件公司都是工具制造商;虽然有些不是(它们是工作流编码系统 (Workflow Codification Systems)),但对于很多公司而言,它们纯粹就是工具制造商。例如,Excel 是工具,PowerPoint 是工具,Cadence 做的是工具,新思科技 (Synopsys) 做的也是工具。

我看到的未来与大众的看法恰恰相反。我认为,智能体 (Agents) 的数量将呈指数级增长,工具使用者的数量也会呈指数级增长。这些工具的调用实例 (Instances) 极有可能会激增。新思科技的 Design Compiler (设计编译器) 的使用实例很可能会一飞冲天。调用布局规划器、所有的版图工具以及设计规则检查器 (Design Rule Checkers) 的智能体数量将大幅增加。今天,我们的发展受限于工程师的数量;而明天,这些工程师将得到成群智能体的辅助。

它们将以前所未见的广度去探索设计空间 (Design Space),并且会需要调用我们今天正在使用的工具。我认为,工具使用量的这种爆发式增长,将推动这些软件公司的市值实现腾飞。

这种情况之所以目前还没有发生,是因为现阶段的智能体还不够擅长使用这些工具。未来,这些公司要么自己下场开发智能体,要么现有的智能体会进化得足够强大,从而能熟练掌握这些工具。我认为未来会是这两者的结合。

主持人: 我注意到,在你们最近的财务文件中,你们与代工厂、内存和封装厂商达成了近 1000 亿美元的采购承诺 (Purchase Commitments)。而据 SemiAnalysis 报道,你们未来这类采购承诺的规模将高达 2500 亿美元。所以有一种解读是,英伟达真正的护城河 (Moat) 在于,你们已经锁定了未来多年内这些稀缺组件的供应。别人可能也做出了加速器,但他们真的买得到内存来制造它吗?真的能拿到逻辑芯片去落地吗?这才是英伟达在未来几年的超级护城河。

黄仁勋:没错,这确实是我们能做到、但别人很难做到的一点。我们之所以能在上游做出如此庞大的承诺,一部分是显性的合同,也就是你刚才提到的那些;另一部分则是隐性的信任。例如,上游供应链之所以愿意投入巨资扩产,是因为我跟他们的 CEO 们说:“让我来告诉你们这个产业未来会有多庞大,让我向你们解释背后的逻辑,让我陪你们一起推演,带你们看看我所预见的未来。”

通过这种与上游各行各业 CEO 们传递信息、启发愿景并达成共识的过程,他们才愿意掏真金白银去投资扩产。那么,为什么他们愿意为了我,而不是为了其他人去投资呢?因为他们心里清楚,我有绝对的消化能力,能够买断他们的产能,并通过我的下游渠道把产品卖出去。正是因为英伟达的下游供应链体系和下游市场需求如此庞大,他们才敢于在产业链上游果断投资。

如果你留意过我们的 GTC 大会,人们无不惊叹于它的空前规模和参会阵容;那是一个 360 度的全景视角,整个 AI 宇宙 (Universe of AI) 都汇聚于此。他们齐聚一堂,是因为他们需要看到彼此。我把大家凑到一起,好让下游能看到上游的实力,上游能看到下游的爆发,让所有人都能亲眼目睹 AI 最前沿的突破。

更关键的是,他们可以借此结识那些正在崛起的 AI 原生企业 (AI Natives) 和 AI 初创公司,身临其境地感受这些正在发生的行业奇迹,这就印证了我当初对他们描绘的所有蓝图。因此,我花了大量时间,直接或间接地向我们的供应链、合作伙伴和整个生态系统传达摆在我们面前的时代巨浪。

人们常说:“Jensen (黄仁勋),在大多数的科技主题演讲中,流程就是连珠炮似的一个个发新品。”但我们的演讲不同,总有一部分听起来略显“烧脑 (Torturous)”,因为它简直就像一堂硬核的公开课。而这,恰恰是我的有意为之。我必须要确保包括上下游供应链以及整个生态系统在内的所有人,都能深刻理解这背后的逻辑。

我希望大家明白:我们正在迎接什么浪潮?为什么会爆发这股浪潮?它何时到来?它的规模会有多震撼?我希望大家都能像我一样,系统性地推演出这一切。所以,回到你说的护城河 (Moat) 问题,我们当然能够为未来未雨绸缪。如果未来几年我们要面对的是一个万亿美元级别规模的市场,我们已经备好了足以支撑它的供应链。

没有我们这种广袤的触达能力和极高的业务流转速度是不可能做到的。就像企业有现金流一样,产业也有供应链流,有周转率 (Turns)。如果一种计算架构的商业周转率很低,没有哪家供应商会冒着风险去为它扩建供应链。所以,我们之所以能够维持这种恐怖的规模,完全是因为我们的下游需求太庞大了,大家有目共睹,耳熟能详。他们看到海啸正在汹涌而来。正是这种上下游的绝对共识,才赋予了我们在如此宏大的规模下,做成别人做不到的事情的能力。

主持人: 我确实想更具体地了解上游供应链能否跟上你们的步伐。多年来,你们的营收一直保持着同比翻倍的增长,而你们向全球提供的算力(FLOPS)更是每年增至三倍以上。在这种庞大体量下实现翻倍,简直不可思议。

没错,我们来看看逻辑芯片(Logic Chip)领域:你们是台积电(TSMC) N3 工艺的最大客户,也是 N2 工艺的最大客户之一。据 SemiAnalysis 统计,今年整个 AI 行业将消耗 N3 工艺 60% 的产能,而明年这一比例将达到 86%。

既然你们已经占据了绝大部分产能,未来如何还能继续保持翻倍?而且是年复一年地翻倍?我们现在是否已经到了一个由于上游产能受限,导致 AI 算力增速不得不放缓的阶段?你有没有看到突破这种限制的方法?或者说,我们最终究竟该如何做到每年新建两倍数量的晶圆厂(Fabs)?

黄仁勋: 是的,从某种程度来看,全球上下游的瞬时需求(Instantaneous Demand)确实大于供给。在任何时刻、任何情况下,我们都可能受到诸如水管工数量不足的限制,这种事在现实中是实实在在发生着的。

主持人: 明年的 GTC 大会应该邀请水管工们来参加。

黄仁勋: 顺便说一句,这主意真不错。但这其实是个好状态。你会渴望身处这样一个市场和行业:它的瞬时需求远大于整个行业的总供给。 反之则显然没那么美好。如果供需缺口过大,或者某个特定零部件的供应远远跟不上,整个行业自然会蜂拥而至去解决它。

举个例子,你注意到现在大家很少再谈论 CoWoS(晶圆级封装)了。原因在于,在过去的两年里,我们倾尽全力疯狂攻克了它的产能问题,甚至多次实现了产能翻番、再翻番。我认为现在我们的状况相当不错。台积电也已经意识到,CoWoS 的供应量必须跟上逻辑芯片和内存的需求步伐。他们现在正以扩展逻辑芯片同样的力度,去扩展 CoWoS 以及未来的先进封装技术。这太棒了,因为在很长一段时间里,CoWoS 和 HBM(高带宽内存)都被视为小众的特殊工艺。现在它们不再是小众了,人们意识到它们已经成为了主流的计算技术。

当然,我们现在更有能力去影响供应链中更广泛的环节。在 AI 革命的初期,也就是五年前,我所说的正如我今天所说的一样。有些人相信了并果断投资。比如 Sanjay 和美光(Micron)团队——我至今仍清楚地记得那次会议,我非常清晰地阐述了未来会发生什么、为什么会发生,以及对今天的预测。他们真的加倍下注了。我们在 LPDDR 和 HBM 内存领域与他们建立了深度的合作,他们也对此进行了大举投资,这显然给他们公司带来了巨大的回报。

有些人虽然入场晚了一点,但现在大家都汇聚于此了。因此,我认为每一个瓶颈都在被逐步攻克。随着行业获得空前的关注,我们现在已经能够提前数年去预判并解决未来的瓶颈。

例如,过去几年我们在 Lumentum、Coherent 以及整个硅光子(Silicon Photonics)生态系统中所做的投资,真正重塑了整个行业及其供应链。我们围绕台积电建立了一条完整的供应链,并与他们在 CPO(共封装光学)技术上展开合作,在这个过程中发明了一大批新技术。

我们将这些专利授权给供应链,以保持生态的开放性。此外,我们正在通过发明新技术、新工作流程、新测试设备以及双面探测(Double-sided Probing)技术,为供应链做好充分准备。通过投资相关公司并帮助它们扩大产能,我们正在塑造整个生态系统,以确保它能从容支撑未来所需的庞大规模。

主持人: 看起来有些瓶颈比其他的更容易解决。比如扩大 CoWoS 产能与扩大……

黄仁勋: 顺便说一句,我刚才提到的可是最难解决的瓶颈。

主持人: 哪个?水管工?

黄仁勋: 对,水管工和电工。之所以这么说,是因为这也是我对那些鼓吹“工作终结”和“工作消亡”的末日论者(Doomers)的担忧之一。如果我们劝阻人们不要去当软件工程师……其实不仅是软件工程师。十年前就有同样的预测,一些末日论者告诉大家:“无论你做什么,千万别去当放射科医生。”你现在可能还能在网上找到那些视频。他们说放射科会是第一个被淘汰的职业,这个世界将不再需要放射科医生。但你猜怎么着?我们现在正面临着放射科医生的严重短缺。

主持人: 好的,回到产能扩张的这点上。有些东西你可以轻易扩张,但另一些呢?比如你究竟如何做到每年制造两倍的逻辑芯片?或者说,逻辑芯片和内存最终都会受限于 EUV(极紫外光刻机)产能。你该如何做到让每年的 EUV 光刻机数量同比翻倍?

黄仁勋: 快速扩大规模并非不可能。这一切在两三年内都可以轻松实现。你真正需要的,是一个强烈的需求信号。只要你能造出一台,就能造出十台;一旦你能造出十台,就能造出一百万台。 所以,这些东西复制起来并不困难。

主持人: 你们在供应链中会向下游深入到什么程度?你们会直接去找 ASML(阿斯麦)说:“嘿,如果放眼三年后,为了让 NVIDIA 实现每年两万亿美元的营收,我们需要多得多的 EUV 光刻机……”吗?

黄仁勋: 有些供应商我必须直接接触,有些则是间接沟通。还有些时候,只要我能说服台积电,ASML 自然就会被说服。我们必须找出最关键的掐脖子点(Pinch Points)。只要台积电深信不疑,几年内你就会拥有充足的 EUV 光刻机。我的观点是:没有任何瓶颈会持续超过两三年——一个都没有。

与此同时,我们正在将计算效率提升 10 倍、20 倍,在从 Hopper 架构到 Blackwell 架构的代际更迭中,甚至提升了 30 到 50 倍。得益于 CUDA 的极度灵活性,我们正在研发新算法,并开发各种新技术来全方位驱动效率提升,而不仅仅是堆砌产能。这些都是不让我担心的事情。

真正让我忧心的是我们下游的阻碍,比如作为发展壁垒的能源政策。没有能源,你就无法发展或创造一个产业;没有能源,你更无法建立一个全新的制造业。 我们想要实现美国的新工业化,让芯片制造、计算机制造和封装产业回流,并创造电动汽车(EV)、机器人和 AI 工厂这些新事物。没有能源,这一切都是空中楼阁,而这些基础设施的挑战需要漫长的时间来解决。

相比之下,增加芯片产能只是个两三年的短期问题,增加 CoWoS 产能也是个两三年的问题。

主持人: 有时候我的嘉宾会告诉我完全相反的观点。在这种情况下,我没有足够的专业技术知识去评判,但是……

黄仁勋: 妙就妙在,你现在正在和真正的专家对话。

TPU 是否会打破 NVIDIA 在 AI 算力领域的统治地位?

主持人: 确实如此。好的,我想问问关于你们竞争对手的情况。如果看看 TPU,目前全球最顶尖的三大模型中,可以说有两款——Claude 和 Gemini——都是在 TPU 上训练出来的。

对 NVIDIA 而言,这在未来意味着什么?

黄仁勋: 我们构建了截然不同的事物。NVIDIA 打造的是加速计算(Accelerated Computing),而不仅仅是一个张量处理单元(TPU)。加速计算的应用场景极其广泛,涵盖分子动力学、量子色动力学以及数据处理——无论是数据帧、结构化数据还是非结构化数据。它还被应用于流体力学和粒子物理学等领域。当然,我们也将其应用于AI。

因此,加速计算的涵盖范围要多样得多。虽然人工智能是当下的热门话题,它确实非常重要且极具影响力,但计算的广度远不止于此。NVIDIA 的伟大之处在于重塑了计算范式,将时代从通用计算推向了加速计算。

我们的市场触达范围远超任何TPU或专用集成电路(ASIC)。纵观我们的市场定位,NVIDIA是唯一一家能够加速各类应用的公司。我们拥有庞大的生态系统,各种框架和算法都能在NVIDIA平台上完美运行。此外,我们的计算机在设计之初就是为了让“他人”来操作,因此,任何系统运营商都可以购买并使用我们的系统。

相比之下,大多数自研系统往往要求你自己成为运营商,因为它们的设计根本不够灵活,无法供他人操作。正因为任何人都能轻松运营我们的系统,NVIDIA的身影遍布每一朵云,包括谷歌云(Google Cloud)、亚马逊(AWS)、微软Azure以及甲骨文云(OCI)。

无论你是想作为云服务出租,还是留作自营,商业模式各不相同。如果你想做算力租赁,你最好在各个行业拥有庞大的客户生态来为你买单(Off-takers);如果你想自建自营,我们显然也有能力助你一臂之力,比如我们为埃隆·马斯克(Elon Musk)的xAI所做的那样。

由于我们能够赋能各行各业的运营商,你可以利用我们的系统构建一台用于科学研究和药物研发的超级计算机,就像礼来公司(Eli Lilly)那样。我们能协助他们运营专属的超级计算机,并将其全面应用于我们所加速的药物发现和生物科学的广阔领域中。

当然,有许多我们能处理的应用,TPU也能做到,因为NVIDIA同样将CUDA打造成了一个极其出色的张量处理单元。然而,CUDA的独特之处在于,它覆盖了数据处理、计算以及AI等每一个生命周期。

我们的市场机遇要广阔得多,触达的边界也深远得多。因为我们几乎支撑着当今世界所有的应用,无论你在何处构建NVIDIA的系统,都不愁没有客户买单。这是一个截然不同的境界。

主持人: 这个问题可能有些长。你们的营收数据堪称璀璨,但这笔巨额收入主要并非来自制药或量子计算领域;你们之所以能创造这样的营收,是因为AI是一项正以空前速度爆发的史诗级技术。所以,我的问题是:究竟什么才是专门针对AI的最优解?

我并不了解底层的技术细节,但我跟身边从事AI研究的朋友交流时,他们说:“你看,当我使用TPU时,它就是一个巨大的脉动阵列(Systolic Array),简直是为矩阵乘法(Matrix Multiplication)量身定制的。” 而GPU虽然极其灵活,在处理大量分支预测(Branching)或不规则内存访问时表现优异。

但AI的本质是什么?不就是一次又一次高度可预测的矩阵乘法吗?你完全不需要为了线程束调度器(Warp Schedulers)或线程与显存库(Memory Banks)之间的切换,去牺牲任何宝贵的芯片面积(Die Area)。因此,对于当下爆发式增长的算力需求和应用场景来说,TPU才真正做到了极致优化。我想知道您对此有何回应?

黄仁勋:矩阵乘法固然是AI的重要基石,但绝不是AI的全部。 如果你想发明一种全新的注意力机制(Attention Mechanism),或者想采用一种不同的解耦方式,又或者你想开创一种颠覆性的全新架构——例如混合状态空间模型(Hybrid SSM),或是融合了扩散模型(Diffusion)与自回归(Autoregressive)元素的新模型——你就必须拥有一个具备通用编程能力的底层架构。

我们能运行你能想象到的任何工作负载,这就是我们的杀手锏。正因为它是一个高度可编程的系统,新算法的诞生才变得轻而易举。归根结底,源源不断发明新算法的能力,才是推动AI狂飙突进的真正引擎。

TPU和其他任何芯片一样,都受制于摩尔定律(Moore's Law)。考虑到摩尔定律带来的性能提升每年只有大约25%,想要实现10倍甚至100倍的性能飞跃,唯一的途径就是每年都在算法层面和计算方式上进行颠覆性的革新。

这就是NVIDIA的核心护城河。当我最初宣布Blackwell架构的能效将比Hopper架构高出35倍时,没人相信。然而,迪伦(Dylan Patel)后来写了一篇文章指出,我实际上还是“藏拙”(Sandbagged)了,真正的能效提升高达50倍。单凭摩尔定律,你是绝对不可能实现这种跨越的。

为了突破这一瓶颈,我们引入了混合专家模型(MoE)等全新模型,将它们在整个计算系统中进行并行化、解耦和分布式处理。如果没有CUDA赋予我们深入底层开发全新计算内核(Kernels)的能力,这一切将简直比登天还难。

我们架构的极致可编程性,加上NVIDIA作为一家将“软硬协同设计”做到极致的公司,使我们能够将计算任务卸载到互联网络(Fabric)本身——比如用于芯片连接的NVLink,或用于数据中心网络的Spectrum-X。我们可以同时在处理器、系统、网络架构、软件库和算法层面掀起变革。如果没有CUDA作为万物之基,我甚至都不知道该从何入手。

主持人: 这就引出了一个关于NVIDIA客户结构的有趣问题。如果你们60%的营收都来自五大超大规模云服务商(Hyperscalers),那如今的时代与过去面对不同客户群时已经截然不同了——比方说,以前那些跑实验的大学教授们极度依赖CUDA。他们根本用不了其他的加速器;他们只需要在CUDA上运行PyTorch,并确保一切都得到了极致优化。

然而,超大规模云服务商拥有庞大的资源去编写自己的底层内核(Kernels)。事实上,为了榨干特定架构下最后5%的极限性能,他们也不得不这么做。Anthropic和谷歌大部分都在运行自家定制的加速器——TPU和Trainium。甚至连OpenAI,即便在使用GPU,也在利用Triton语言,这意味着他们同样需要编写自己的内核。他们已经深入到了CUDA C语言的级别;他们没有止步于直接调用cuBLAS和NCCL库,而是构建了一套属于自己的软件栈,并且这套架构同样可以编译并适配到其他加速器上。

所以,如果你们的大多数头部客户不仅有能力,而且确实正在打造CUDA的替代品,那么在多大程度上,CUDA还能被视为引领“前沿AI”(Frontier AI)在NVIDIA平台上开花结果的核心壁垒呢?

黄仁勋: CUDA 是一个极其繁荣的生态系统。如果你想在任何计算机上进行开发,首选 CUDA 是极其明智的。

因为生态系统如此繁荣,我们支持所有的框架。例如,如果你需要创建自定义内核,我们为 Triton 贡献了大量代码;Triton 的后端包含了海量的 NVIDIA 技术。我们很高兴能帮助每一个框架发挥出它们的最佳水平。

目前市面上有许多优秀的框架,例如 Triton、vLLM、SGLang 等。此外,还有一大批新的强化学习框架正在涌现,包括 veRL、NeMo RL 等。随着后训练 (Post-training) 和强化学习 (Reinforcement Learning) 领域目前的爆发式增长,基于 CUDA 进行开发是最合理的选择,因为你可以确信这个生态系统足够强大且稳健。

你可以确信,如果运行出了问题,大概率是你自己的代码有误,而不是底层那堆积如山的代码有问题。别忘了,构建这些系统时你需要处理的代码量是多么庞大。当系统无法正常运行时,到底是你的问题还是计算机的问题?你肯定希望这总是你的问题,这样你就能完全信任计算机。显然,我们自己也还有很多 Bug,但我们的系统已经经过了极其充分的测试,至少能让你站在一个坚实的基础之上进行开发。这就是第一点优势:生态系统的丰富性、可编程性以及强大的功能。

第二点:如果你是一名开发者,不管你开发什么,你最渴望的一定是庞大的装机基数 (Install Base)。你希望自己编写的软件能在千千万万台计算机上运行。你开发软件绝不仅仅是为了自己用;作为一名框架构建者,你是为了自己的计算集群,或是为了世界上所有人的集群在编写软件。

NVIDIA 的 CUDA 生态系统归根结底是我们最宝贵的财富。目前,我们的 GPU 装机量已达数亿台。每一朵云里都有它们的身影,从 A10、A100、H100、H200,再到 L 系列和 P 系列,各种规格和形态应有尽有。如果你是一家机器人公司,你会希望 CUDA 软件栈能直接在机器人上运行。可以说,我们的硬件无处不在。庞大的装机基数保证了一旦你开发出软件或模型,它就能在任何地方发挥作用。这种装机基数的价值是无可估量的。

最后,我们存在于每一家云服务中,这让我们变得真正独一无二。试想,作为一家 AI 公司或一名 AI 开发者,你可能还不确定最终会与哪家云服务提供商 (CSP) 合作,也不确定想在哪里部署模型。而我们能在任何地方运行,如果你愿意,甚至可以部署在本地数据中心 (On-prem)。因此,我认为:生态系统的繁荣度、装机基数的广阔性,以及部署环境的通用性,这三者的完美结合让 CUDA 价值连城。

主持人: 这非常有道理。但我好奇的是,这些优势对于你们的头部客户来说真的那么重要吗?对于很大一部分客户来说,这些优势可能并不重要,特别是那些完全有能力自主构建软件栈,同时又贡献了你们绝大部分收入的超大规模客户。

在这个 AI 越来越擅长处理具有严格验证循环 (Verification Loops) 任务的世界里,这一点尤为明显。在这种环境下,你可以非常有效地应用强化学习 (RL)。关于如何编写出能在超大规模扩展下最高效执行注意力机制 (Attention) 或多层感知机 (MLP) 的内核,本身就是一个具有高度可验证反馈循环的过程。这就引出了一个问题:难道所有的超大规模云厂商 (Hyperscalers) 就不能为自己编写这些定制化内核吗?

虽然他们目前可能仍然因为 NVIDIA 卓越的 PCIe 性能而偏好你们,但市场未来可能会转向一个纯粹“拼参数 (Specs)”的模式。最终,竞争的焦点可能变成:谁能提供单位成本(每美元)下最高的算力 (FLOPS) 和内存带宽?

回顾历史,无论是在硬件还是软件方面,NVIDIA 一直在 AI 领域保持着最高的利润率(通常超过 70%),这很大程度上要归功于“CUDA 护城河”。但真正的问题在于:如果大多数客户发展到能够负担得起构建自己的解决方案,而不再依赖 CUDA 护城河时,这种高利润率还能维持下去吗?

黄仁勋: 我们派往这些 AI 实验室的工程师数量是极其惊人的。我们与他们并肩作战,直接帮他们优化软件栈。原因很简单:这个世界上,没有人比我们更懂我们自己的架构。

这些架构可不像 CPU 那样通用。CPU 就像一辆凯迪拉克,是一款舒适的巡航车。它速度绝不会太快,每个人都能开得平稳,带有定速巡航,一切都毫不费力。相比之下,NVIDIA 的 GPU 是加速器——它们就像是 F1 赛车。虽然我可以想象每个人都能把它开到时速 100 英里,但要想将其推向极限,则需要极其深厚的专业底蕴。

我们运用了大量的 AI 技术来编写现有的内核,我非常确信,在未来相当长的一段时间内,他们依然会需要我们。我们的专业知识能帮助这些 AI 实验室合作伙伴轻松地让他们的软件栈性能再翻一倍。

当我们完成对他们的软件栈或某个特定内核的优化时,模型的运行速度提升 50%、2 倍甚至 3 倍都是家常便饭。这是一个极其庞大的数字,特别是当你考虑到他们所拥有的计算集群的装机规模——那是漫山遍野正在运行的 Hopper 和 Blackwell 芯片。当你将性能提升一倍,产生的影响是颠覆性的,这直接让他们的收入翻倍。

性能的提升直接转化为真金白银的收入。NVIDIA 的计算软件栈拥有全世界最好的单位总拥有成本性能 (Performance per TCO),没有任何争议。没有人能向我证明,当今世界上有任何一个平台的性能 TCO 比率能超越我们,一家都没有。实际上,基准测试就摆在那里,Dylan 的 InferenceMax 公开供所有人测试。但是,没有任何一家 TPU 敢来应战,AWS 的 Trainium 也不敢来应战。

我鼓励他们用 InferenceMax 来展示一下他们吹嘘的“惊人推理成本”。这真的太难了,根本没有人敢露面。在 MLPerf 基准测试中,我非常欢迎 Trainium 来实际展示一下他们一直标榜的 40% 性能优势。我也很想看看他们如何证明 TPU 的成本优势。在我看来,这根本就是无稽之谈。这绝对说不通,从第一性原理 (First Principles) 来看也完全站不住脚。所以,我认为我们之所以如此成功,根本原因就在于我们的 TCO 优势太明显了。

还有第二点:你提到我们 60% 的收入来自前五大客户,但他们购买的算力绝大多数是用于对外服务的。例如,AWS 采购的 NVIDIA 算力大多是提供给外部客户的,而不是供内部使用。显然,Azure 的绝大多数客户也是外部客户。我们在甲骨文云 (OCI) 的所有客户更是百分之百的外部客户。这些云厂商之所以青睐我们,是因为我们的市场触达能力无与伦比。我们能为他们带来全球最优秀的客户,而这些客户的系统统统都是基于 NVIDIA 构建的。

所有这些公司之所以建立在 NVIDIA 的生态之上,正是因为我们的触达范围和通用性极其强大。我认为,真正推动这个飞轮高速运转的,是庞大的装机基数、我们架构出色的可编程性、极度丰富的生态系统,以及现如今全球数以万计的 AI 公司的蓬勃发展。

如果你是这成千上万家 AI 初创公司中的一员,你会选择哪种架构?你必然会选择那个市面上最普及的架构。而我们,拥有全球最大的装机基数和最繁荣的生态系统。

这就是我们的飞轮效应。 正是这些因素的结合,造就了我们无可匹敌的极致性价比 (Performance-per-dollar),从而让我们的合作伙伴实现了全球最低的单 Token 成本。

此外,我们的能效比 (Performance-per-watt) 也是世界第一。如果我们的合作伙伴建造了一个 1 吉瓦 (Gigawatt) 的数据中心,这个设施必须产出最大数量的 Token(这直接等同于收入),才能将基础设施的投资回报率拉满。而我们,拥有世界上“每瓦特生成 Token 数”最高的架构。

最后,如果你的商业模式是出租基础设施,我们拥有全世界最庞大的客户群来租用它。这就是为什么我们的飞轮能够势不可挡地运转。

主持人: 很有意思。

主持人: 我想问题归根结底在于,这里实际的市场结构究竟是怎样的。因为即便存在其他公司,理论上也可能出现这样一个世界:成千上万家 AI 公司平分秋色,占据大致相等的算力份额。但现实却是,即便通过这五大超大规模云服务商(Hyperscalers),真正在亚马逊云上消耗算力的,其实是 Anthropic、OpenAI 这些大型基础模型实验室。他们自身既有财力,也有技术实力让不同的加速器(Accelerators)运转起来。

黄仁勋: 不,我认为你的前提就错了。

主持人: 也许吧。

黄仁勋: 但让我换个角度问你一个问题。等会儿你再绕回来,逼着我纠正你的前提。

主持人: 好的。

黄仁勋: 无论你在做什么,一定要记得把我拉回来纠正这个前提。因为这太重要了——这对 AI 太重要了,对科学的未来太重要了,对整个行业的未来都太重要了。关于那个前提,你听我说……

主持人: 让我先把问题说完,然后我们再一起探讨。如果你们纸面上关于性价比和每瓦性能(Performance per watt)等优势都是真的,那你怎么解释 Anthropic 几天前刚宣布的那个消息?他们与博通(Broadcom)和谷歌达成了一项多吉瓦(Gigawatt)级的协议,用 TPU 来承担他们绝大部分的算力需求。显然对谷歌来说,TPU 构成了他们算力的绝对主力。纵观这些大型 AI 公司,似乎在过去的某个阶段,他们百分之百依赖 NVIDIA,但现在情况变了。所以我很好奇该如何自圆其说:如果你们的纸面数据是真的,为什么他们还要改用其他加速器?

黄仁勋: Anthropic 是一个孤例,而非趋势。如果没有 Anthropic,TPU 怎么会有增长?百分之百都是因为 Anthropic。如果没有 Anthropic,AWS 的 Trainium 芯片怎么会有增长?同样百分之百是因为 Anthropic。我想这一点大家心知肚明。这并不意味着市面上遍地都是定制芯片(ASIC)的机会。因为世界上只有一个 Anthropic。

主持人: 但是 OpenAI 也和 AMD 有合作,他们也在打造自己的 Titan 加速器。

黄仁勋: 是的,但我相信大家都有目共睹,他们绝大多数算力依然来自 NVIDIA。未来我们还会有大量的深度合作。别人去使用其他产品或尝试新鲜事物,我并不会觉得被冒犯。如果他们不去尝试别的东西,怎么会知道我们的产品有多好?有时人就是需要被这样提醒一下。 我们必须不断努力,去配得上今天的位置。市场上永远充斥着各种夸张的宣传,但你看看有多少 ASIC 项目最终中途夭折。你打算造一颗 ASIC 芯片,前提是你得造出比 NVIDIA 更好的东西。但造出比 NVIDIA 更好的东西谈何容易?实际上,这甚至不太理智。除非我们 NVIDIA 犯了极其严重的失误,否则凭借我们的研发规模和迭代速度,我们就是全球唯一一家每年都能持续推陈出新、每年都在实现巨大飞跃的公司。

主持人: 我想他们的逻辑大概是:嘿,它不需要比 NVIDIA 更好,只要性能差距不超过 70% 就行,因为买你们的产品要被赚走 70% 的毛利率。

黄仁勋: 不,不。别忘了,即使是定制芯片(ASIC),其利润率也是非常高的。哪怕 NVIDIA 的毛利率是 70%,ASIC 的毛利率也有 65%。那你到底省下了什么钱?哦,你是说从博通(Broadcom)那里省钱吗?当然,你总得掏钱付给某个人。

据我所知,ASIC 业务的利润率极其丰厚,他们自己也深信这一点,并为这种惊人的利润率感到自豪。你问我为什么会走到今天这一步?因为在很久以前,我们根本没有能力去做这种级别的投资。

当时,我并没有深刻体会到,建立像 OpenAI 或 Anthropic 这样的基础模型实验室(Foundation AI lab)究竟有多难。我也没意识到,他们需要供应商直接提供巨额资金。我们当时根本拿不出几十亿美元去投资 Anthropic,来换取他们使用我们的算力。但谷歌和 AWS 有这个实力,他们在早期砸下了重金,作为回报,Anthropic 使用了他们的算力。我们当时的确不具备这样的客观条件。

我也没意识到——或者说我的失误在于,我没有深刻洞察到他们其实别无选择。传统的风险投资(VC)绝不可能豪掷 50 亿或 100 亿美元投给一个 AI 实验室,然后祈祷它能成长为下一个 Anthropic。这就是我错判的地方。但老实说,就算当时我看透了这一点,以我们当时的财力也无能为力。

但我绝不会再犯同样的错误了。 我现在非常乐意投资 OpenAI,也非常乐意帮助他们扩大规模(Scale)。我认为这是至关重要的,我也很高兴自己终于有能力做到了。

为什么 NVIDIA 不自己做超大规模云厂商?

当 Anthropic 找到我们时,我其实非常乐意成为投资人,也非常乐意帮助他们扩张。但我们当时就是做不到。如果一切可以重来,如果 NVIDIA 当时就能有现在这样的体量,我绝对一百个愿意去做这件事。

主持人: 这其实非常有趣,多年来 NVIDIA 一直是 AI 领域占据绝对主导地位的公司,赚得盆满钵满。而现在你开始把钱投出去。有报道称,你们在 OpenAI 估值 300 亿美元、Anthropic 估值 100 亿美元时进行了投资。但现在他们的估值已经水涨船高,而且我相信还会继续飙升。过去这些年里,你们一直在为他们提供算力,你也看清了 AI 的发展方向。就在一两年前,他们的估值只有现在的十分之一。而你手握大量现金。

理论上原本存在这样一种可能:要么 NVIDIA 自己下场成为一个基础模型实验室,砸重金促成此事;要么你们在更早的时候,以极低的估值达成现在这些投资交易,毕竟你们当时手头是有现金的。所以我真的很好奇,当初为什么没有早点出手?

黄仁勋: 我们已经是在能力允许的第一时间就出手了。只要能力跟得上,我们绝没有拖延。如果可以的话,我恨不得更早就投。但在 Anthropic 需要我们的时候,我们确实没有这个实力。当时这种做法也不符合我们对公司战略的认知。

主持人: 怎么说?是因为现金(Cash)不够,还是……

黄仁勋: 是的,那可是天价的投资额度——当时我们几乎从未对外进行过投资,更别提这么庞大的金额了。而且我们当时也没意识到有这个必要。我一直觉得,老天,他们完全可以像其他所有公司一样去融资,找风投(VC)不就行了。

但他们要做的事,根本不是靠风投能撑得起来的。OpenAI 想实现的愿景,也是风投无法负荷的。我现在彻底明白了,但我当时的确不懂。这就是他们的天才之处,也是他们的高明所在。他们在那时就觉察到必须走另一条路,我很高兴他们做到了。

尽管我们当时无能为力,迫使 Anthropic 只能转投他人怀抱,但我依然为这笔交易的达成感到高兴。Anthropic 的存在对这个世界是一件大好事,我打心底里为他们感到高兴。

主持人: 我想你现在依然赚得盆满钵满,而且每个季度的利润都在疯狂翻倍。

黄仁勋: 但人总还是要允许自己有一点遗憾的。

主持人: 所以问题依然存在:既然已经发展到今天这一步,而且你们赚了这么多钱,英伟达应该拿这些钱做什么?

有一种答案是:你看,现在出现了一个庞大的中间商生态系统,专门帮那些 AI 实验室把资本支出(CapEx)转化为运营支出(OpEx),让他们能直接租用算力,因为芯片实在太贵了。随着人工智能和机器学习的不断进步,通过处理词元(Tokens)所产生的价值越来越高,这些芯片在其生命周期内能创造巨额利润,但初期的搭建成本非常高昂。

英伟达有充裕的资金来承担这些资本支出。事实上,据报道你们正在为 CoreWeave 提供财务担保(Backstopping),涉及金额高达 63 亿美元,并且已经直接投资了 20 亿美元。但为什么英伟达不自己成为一家云服务商呢?为什么不亲自成为超大规模云厂商(Hyperscaler)并把算力租出去?毕竟你们有充足的现金来做这件事。

黄仁勋: 这是我们公司的经营哲学,我认为它非常明智:**尽其所需,点到为止 (Do as much as needed, as little as possible)**。这意味着,在构建计算平台这件事上,如果我们不亲自下场,我真心认为就没人能做得出来。

如果我们当初不冒那些险,没有用我们的方式打造 NVLink,没有构建出完整的技术栈,没有像现在这样建立起整个生态系统;如果我们没有花 20 年时间死磕 CUDA,而且在此期间大部分时候都在亏钱——如果我们不去做,就不会有其他人去做。

如果我们当初没有开发那些特定领域的 CUDA X 库——要知道,这可是十五年前的事了,我们之所以大力推进特定领域库(Domain-specific Libraries),是因为我们意识到,如果不去开发这些库,无论是用于光线追踪、图像生成,还是早期的 AI 模型研究,或者是用于数据处理、结构化数据处理及向量数据处理——如果我们不建,就没人会建。对此我无比确信。我们甚至为计算光刻技术(Computational Lithography)开发了一个名为 cuLitho 的库。如果我们不做,根本不会有人去做。

因此,如果我们没有采取那些行动,加速计算就不可能取得今天的突破。所以,那是我们必须要做的。我们应该举全公司之力,全心全意、倾其所有地去做这件事。然而,这个世界并不缺云服务商。就算我不做云,也会有别人跳出来做。

所以,遵循我们“尽其所需,点到为止”的经营哲学,这种理念至今仍贯穿于整个公司。我做任何决策,都会戴上这副“透视镜”去考量。以云服务为例,如果我们不支持 CoreWeave 成立,这些新兴的“新云”(Neo-clouds)或 AI 云厂商就不会存在。

如果我们不出手相助,CoreWeave 不会诞生。如果我们不支持 NScale,他们不会有今天的规模。如果我们不支持 Nebius,他们也不会有今天的成就。但现在,他们不仅立住了脚,而且发展得极其出色。

这是我们的商业模式吗?不是。我们依然是“尽其所需,点到为止”。我们投资生态系统,是因为我希望它能繁荣壮大。我希望我们的架构和 AI 能够与尽可能多的行业和国家连接,让整个地球都能建立在 AI 和美国技术栈之上。这正是我们孜孜以求的愿景。

正如你提到的,现在有很多极其出色的大型基础模型(Foundation Model)公司,我们试图投资它们中的每一家。这是我们的另一项准则:**我们不挑选赢家(Don't pick winners)**。我们需要支持所有人,这也是我们乐在其中的一部分。这不仅是我们业务的必然要求,我们也会刻意避免去挑选赢家。因此,当我决定投资其中一家时,我就是在投资所有人。

主持人: 为什么你要刻意避免去挑选赢家呢?

黄仁勋: 第一,因为这压根不是我们的工作。第二,在英伟达刚起步时,市面上有 60 家 3D 图形芯片公司。我们是唯一活下来的一家。如果当时你看着那 60 家公司,问自己“哪家能笑到最后”,英伟达绝对排在“最不可能成功榜单”的榜首。

你要知道,那是在你出生之前很久的事了。当时英伟达的图形架构完全搞错了,不是错了一星半点,而是错得南辕北辙。那是一个开发者根本无法支持的架构,注定会失败。我们当时可是基于第一性原理(First Principles)进行了严谨的推演,却得出了一个极其错误的解。当时所有人都觉得我们死定了。

但看看现在,我们活下来了。正因如此,我保持着足够的谦卑去认知这一点:不要妄图去挑选赢家。要么让他们自己物竞天择,要么就平等地扶持所有人。

主持人: 有一件事我不太理解。你说并没有因为这些“新云”是新兴事物,就为了扶持而刻意优待它们;但你刚才又列举了一堆新云厂商,并说如果没有英伟达,它们根本就不会存在。这两点该如何自圆其说呢?

黄仁勋: 是的。

主持人: 这两者怎么统一呢?

黄仁勋: 哦,首先,他们必须自己有强烈的生存意愿,并主动来寻求我们的帮助。当他们想要成立公司,拥有商业计划、专业知识,并展现出极大的热情时,说明他们自身显然已经具备了一定的能力。如果在最后关头,他们需要一笔投资来让项目顺利起飞,我们自然会鼎力相助。

然而,他们的商业飞轮(Flywheel)转得越快越好。你问我们是不是想涉足金融投资业务,答案是否定的。我们不想当金融家,我们更愿意与金融界现有的专业人士合作。我们的目标是专注主业,保持商业模式尽可能简单,并全力支持我们的生态系统。

当像 OpenAI 这样的公司需要数百亿美元规模的资金支持时——因为他们目前仍处于 IPO 前期——而我们又对他们深信不疑,我们就会果断介入。我相信他们今天已经是一家卓越的公司,未来必将成就非凡。世界需要他们,人们期待他们,我也希望他们能大放异彩。既然他们有如此强劲的发展势头,我们就会支持他们去扩大规模(Scale)。我们之所以进行这些投资,是因为他们确实需要我们的帮助;但我们并不是在盲目扩张,我们坚守的依然是:做必要之事,止于所当止。

主持人: 这是一个老生常谈的问题,多年来我们一直面临 GPU 短缺的窘境。而现在,随着模型越来越强,这种短缺愈演愈烈,GPU 依然供不应求。而英伟达在分配这些稀缺算力时,众所周知,并不仅仅是谁出价高(Highest Bidder)就给谁,而是基于一种考量:“嘿,我们要确保这些新兴云厂商能够生存下去。” 于是你们分给 CoreWeave 一些,分给 Crusoe 一些,再分给 Lambda 一些。这种分配策略对英伟达有什么好处?首先,你认同我对这种现象的描述吗?

黄仁勋: 关于市场的考量。不,你的前提本身就错了。我们对这些问题考虑得非常周全。首先,如果你不下采购订单(PO),说破天也无济于事。所以,在拿到订单之前,我们能做什么呢?我们要做的第一件事,就是努力和所有人一起做好预测,因为这些基础设施的制造周期很长,数据中心的建设也需要漫长的时间。因此,我们通过预测来协同供需。这是首要任务。其次,我们尽量和尽可能多的客户做需求预测,但归根结底,你依然得真正下达订单。

也许出于某种原因你没下单,那我能怎么办呢?所以在某种程度上,我们遵循“先到先得”。但除此之外,如果你自己还没准备好——比如你的数据中心还没建好,或者某些关键组件还没到位,导致你的数据中心无法运转——我们可能会决定先为其他客户供货。这只是为了最大化我们自身工厂的吞吐量,因此我们会在排期上做一些调整。但抛开这些特殊情况,优先级就是“先到先得”。你必须下订单。 如果你不下单——当然,外界对此有很多传言。比如,这一切的起因是有一篇文章说拉里(Larry Ellison)和埃隆(Elon Musk)跟我共进晚餐,并在席间“乞求”分配GPU。

这绝对是无中生有。我们确实共进晚餐了,而且那是一顿非常愉快的晚餐。但他们自始至终都没有“乞求”过GPU。他们只需要下订单就行了。一旦下了单,我们就会尽全力为他们提供产能。我们的规则就这么简单。

主持人: 好的,听起来你们确实有一个排队机制,然后根据你的数据中心是否就绪以及下单的时间,会获得一个相应的排期。但这听起来并不像是“价高者得”(highest bidder)。不这么做有什么特别的理由吗?

黄仁勋: 我们绝不那样做。绝不会。为什么不采取“价高者得”?因为那是极其糟糕的商业操守。你定好价格,然后由客户决定买或不买。

我知道芯片行业的其他人会在需求旺盛时坐地起价,但我们绝不如此。我们从不来这一套。

你可以永远信赖我们。我更希望英伟达是一个可靠的伙伴,成为整个行业的基石,你无需对我们有任何猜忌。只要我们报了价,那就是最终价格。就算需求冲破天际,我们也一诺千金。

主持人: 从供应链的另一端来看,这也是你们与台积电(TSMC)能建立如此高效合作关系的原因,对吧?

黄仁勋: 没错。英伟达已经成立很长时间了,我想我们和台积电的合作也快30年了。

英伟达和台积电之间甚至没有一纸严苛的法律合同。我们之间更多的是一种“朴素的公平”(rough justice)与默契。有时候我对,有时候我错;有时候我占了便宜,有时候我吃了点亏。但总体而言,这种合作关系简直不可思议,我可以完全信任并依赖他们。

关于英伟达,你可以确信的一点是:今年,Rubin架构(Vera Rubin)将无比惊艳;明年,Rubin Ultra将会问世;后年则是Feynman架构;再往后的那一年,虽然我还没公布名字,但新品一定会如约而至。所以,每一年,你都可以永远相信我们。

你可以放眼全球去寻找其他的ASIC(专用集成电路)团队。随便挑一个,看看你能不能说:“我敢押上全部身家、押上我整个公司的命运,赌你们每年都会如期为我提供支持。”在英伟达,你的词元(Token)计算成本每年都会下降一个数量级。这完全是可以预期的,就像时钟运转一样精准。

我刚才提到了台积电,纵观历史,除了台积电,没有任何一家代工厂能让你像今天信任英伟达这样去信任他们。你每年都可以指望我们。如果你想购买价值10亿美元的AI工厂算力,没问题;想买1亿美元的,没问题;1000万美元,或者只买一个机架,甚至只是一张显卡,统统没问题。就算你想订购价值1000亿美元的AI工厂,依然没问题。今天,我们是世界上唯一一家能向你做出这种承诺的公司。

关于台积电,我同样可以这么说。我想买一个,或者买十亿个,都没问题。我们只需要走完规划流程,做成熟企业该做的事。我认为,英伟达之所以有能力成为全球AI产业的基石,

我们应该向中国出售AI芯片吗?

这是我们花了二三十年时间才达到的高度。这背后是巨大的投入和无尽的心血。我们公司的稳定性与一致性,真的至关重要。

主持人: 好的,我想问问关于中国的问题。我总是喜欢扮演“魔鬼代言人”的角色,哪怕我自己对于“是否应该向中国出售芯片”也还没定论。当支持出口管制的达里奥(Dario Amodei, Anthropic CEO)来作客时,我问他:为什么美国和中国不能在各自的数据中心里都拥有属于自己的“天才国度”?既然你站在他的对立面,那我就从另一个角度来问你。

有一种观点是这样的:几天前,Anthropic预告了一个名为“Mythos”的模型。他们甚至不敢公开发布它,因为他们认为这个模型具备极强的网络攻击能力,在确保那些“零日漏洞”(zero-day vulnerabilities)被修补之前,这个世界还没准备好迎接它。据他们报告,该模型在所有主流操作系统和浏览器中发现了数千个高危漏洞;它甚至在OpenBSD中也发现了一个——要知道,OpenBSD是一个专门为安全而生的操作系统,27年来从未出现过这样的漏洞。

所以,如果中国的企业、实验室和政府能够获得训练像Claude Mythos这样具备高级网络攻击能力的模型所需的AI芯片,并利用海量算力运行数百万个实例,问题就变成了:这是否会对美国企业和美国的国家安全构成直接威胁?

黄仁勋: 首先,Mythos虽然是由一家非凡的公司训练出来的,但它所使用的算力规模和计算资源其实相当普通。因此,训练该模型所需的算力量级和计算类型,在中国可谓随处可见。

所以,你首先得认清一个现实:中国并不缺芯片。他们制造了全球60%甚至更多的成熟制程芯片,对他们而言这是一个极其庞大的产业。如你所知,他们拥有世界上最顶尖的计算机科学家。在所有的AI实验室里,大多数AI研究人员都是华人。

他们占据了全球50%的AI研究人才。所以问题在于,如果你真的担心他们,考虑到他们手中已经握有的底牌——他们有充沛的能源,有充足的芯片,还有海量的AI研究人员——那么,建立一个安全世界的最佳方式究竟是什么?

一味地打压他们,把他们逼成死敌,恐怕不是最好的答案。他们确实是竞争对手,我们也当然希望美国能赢。

但我认为,开展对话、进行学术界的研究交流,可能才是最安全的做法。由于我们目前将中国完全视为敌手的心态,这方面的交流正严重缺失。

两国的AI研究人员能够真正坐下来交谈,这至关重要。我们必须努力就“AI不能用来做什么”达成共识。至于用AI来发现软件漏洞,这当然没问题,这本身就是AI该干的活。它能在大量软件中发现漏洞吗?当然能。因为软件中本就有着成千上万的漏洞,甚至AI软件本身也漏洞百出。所以,这正是AI的用武之地。我很高兴AI已经发展到了能够极大提升我们生产力的水平。

但有一点被大众严重低估了,那就是围绕网络安全、AI安全以及AI隐私保护所建立的极其繁荣的生态系统。无数AI初创公司正在努力为我们打造这样一个未来:一个极其强大的核心AI智能体,周围环绕着成千上万个辅助智能体,时刻护卫它的安全与边界——这样的未来必然会到来。

那种认为会让一个AI智能体在毫无监管的情况下“到处乱跑”的想法,简直荒谬。所以我们深知,这个安全生态系统必须繁荣发展。

事实证明,这个生态系统离不开开源(Open Source),离不开开放模型和开放技术栈。只有这样,所有的AI研究人员和顶尖计算机科学家,才能构建出既无比强大又能捍卫系统安全的AI防御体系。

因此,我们必须确保开源生态系统的持续繁荣,这一点绝不能被忽视。而目前,大量的开源创新正源自中国。我们绝不应该去扼杀这股力量。关于中国问题,当然,我们的核心前提依然是:我们希望美国能掌握尽可能多的算力资源。

我们目前受限于能源,但我们有大量人才正致力于攻克这一难题。我们必须确保能源不会成为国家发展的瓶颈。

同时,我们希望确保全球所有的AI开发者都在美国的技术栈(Tech Stack)上进行开发,并将他们在AI领域的贡献和突破,特别是开源成果,反哺给美国的生态系统。

将世界割裂为两个生态系统是极其愚蠢的:一个只运行在中国技术栈上的开源生态,以及一个运行在美国技术栈上的闭源生态。我认为,这对美国而言将是一场灾难。

主持人: 既然涉及的内容很多,请允许我分点来回应。回到算力(FLOPs)差距和网络攻击的问题上,我认为令人担忧的一点是:尽管他们拥有算力,但据估计,由于受芯片制造出口管制的影响缺乏极紫外光刻机(EUV),他们目前仍停留在7纳米工艺,其实际能输出的算力仅约为美国的十分之一。他们最终能训练出像Mythos这样的模型吗?能。但因为我们拥有更多算力,美国实验室能率先达到这种能力水平。

正因为Anthropic率先实现了这一里程碑,他们可以将这项技术暂缓一个月发布,让美国公司有机会在模型公开前修补系统漏洞。此外,即使他们训练出了类似的模型,能否进行大规模部署才是关键所在:一个操控着百万级智能体(Agents)的黑客,其破坏力远非操控一千个智能体可比。推理算力(Inference Compute)在这里至关重要。

事实上,正是因为他们拥有如此庞大且顶尖的AI研究人员队伍,才让局势更加令人担忧,毕竟算力是释放这些研究人员生产力的首要因素。如果你去问美国任何一家AI实验室,他们都会告诉你主要的瓶颈就是算力。包括DeepSeek的创始人或Qwen(通义千问)的高管也都曾公开表示过,他们面临的最大限制正是算力。

所以问题来了:既然中国在算力上受限,美国公司凭借算力优势率先达到SPUD或Mythos级别的模型能力,从而让我们能在他们赶超之前,带领整个社会做好迎接这些技术变革的准备,这难道不是一个更好的结果吗?

黄仁勋: 我们当然应该始终保持领先,也理应掌握更多资源。但要让你描述的那种结果成真,你必须把前提推向极端——也就是他们必须“完全没有算力”。一旦他们拥有一定量的算力,真正的问题就变成了“他们到底需要多少算力”。而现实是,中国目前拥有的算力规模是极其庞大的。

你在讨论的是一个大国,那是全球第二大的计算市场。如果他们想要部署并聚合算力,他们绝对有海量的算力资源可以调动。

主持人: 但这是真的吗?很多人做过估算,他们会说:“可是中芯国际(SMIC)在制程节点上实际上是落后的,或者他们实际上……”

黄仁勋: 他们拥有的能源量是惊人的,不是吗?AI本质上是一个并行计算问题,不是吗?既然能源几乎免费,他们为什么不能把四倍甚至十倍的芯片堆叠在一起呢?他们拥有极其丰富的能源,还有完全空置却电力拉满的数据中心。

他们有“鬼城”,也有空置的数据中心,拥有极其庞大的基础设施容量。只要他们想,完全可以把更多芯片并联起来,哪怕只是7纳米的芯片。而且,他们制造芯片的产能在全球数一数二。整个半导体行业都清楚,他们已经垄断了成熟制程芯片,产能甚至严重过剩。所以,那种认为“中国将无法获得AI芯片”的想法完全是无稽之谈。当然,如果你问我:“如果全世界都没有算力,美国会不会遥遥领先?”毫无疑问是的。但这根本不是现实情况。他们已经拥有了充足的算力,至于你所担忧的那种风险,他们其实早已跨过了那道门槛,甚至走得更远。

我认为你误解了一点:AI就像一块五层蛋糕,而最底层的基础是能源。当你拥有充沛的能源时,它足以弥补芯片算力的不足;反之,充足的芯片也能弥补能源的短缺。

举个例子,美国目前面临能源紧缺,这就是为什么英伟达必须不断推动架构演进,进行极致的软硬件协同设计。正因为能源极其受限,所以即使我们只交付少量的芯片,我们依然要把单位能耗的吞吐量(Throughput per Watt)做到极致,简直达到了爆表的地步。

但如果你的电力供应极度充裕,甚至是免费的,你为什么还要在意“每瓦性能”呢?你的资源多到用不完,完全可以用旧一代的芯片去堆叠算力。所以,在充足能源的加持下,7纳米芯片基本就能达到Hopper架构的效果。我必须告诉你,今天最顶尖的模型很大程度上就是在Hopper这一代架构上训练出来的。因此,7纳米芯片已经完全够用了。能源的无限充裕,就是他们最核心的护城河。

主持人: 但随之而来的问题是,考虑到他们目前的制造水平,他们真的能生产出足够多的芯片吗……

黄仁勋: 他们确实做到了。证据是什么?华为刚刚创下了其公司历史上单年营收的最高纪录。

黄仁勋: 数量极其庞大,几百万颗,这可比Anthropic手里的算力多太多了。

主持人: 所以问题在于中芯国际(SMIC)到底能出货多少逻辑芯片,以及有多少……

黄仁勋: 我直接告诉你现状吧:他们有极其充裕的逻辑芯片,也有非常充足的HBM2内存。

主持人: 对,但你也知道,训练和推理这些模型时的瓶颈往往在于带宽。所以如果只用HBM2——我手头没有具体数据——但相比你们目前最新的技术,其内存带宽可能相差将近一个数量级,这就意味着……

黄仁勋: 别忘了,华为是一家网络通信公司!华为的老本行就是做网络连接的!

主持人: 但这改变不了一个事实,那就是制造最先进的HBM依然需要极紫外光刻机(EUV)。

黄仁勋: 不对,完全不对。你完全可以把它们并联起来,就像我们用NVLink 72将芯片连在一起那样。他们已经展示了利用硅光子(Silicon Photonics)技术将所有这些计算节点连接成一台庞大的超级计算机。你的前提从根本上就错了。事实的真相是:他们的AI发展一切顺利。而且别忘了,他们拥有世界上最顶尖的AI研究人员。

正因为受限于算力,他们反而被逼出了极其精妙的算法。 记住我刚才说过的话,摩尔定律每年大约推动25%的硬件性能提升,但凭借卓越的计算机科学,我们依然能够将算法性能提升10倍。我想强调的是:极致的计算机科学,才是真正撬动时代的杠杆。

毫无疑问,混合专家模型(MoE)是一项伟大的发明;也毫无疑问,那些不可思议的注意力机制(Attention Mechanisms)大幅削减了算力需求。我们必须承认,AI领域的大部分飞跃源于算法的突破,而不仅仅是堆砌底层硬件。试想一下,如果大部分的进步都源于算法、计算机科学和编程,你还能说他们那支庞大且顶尖的AI研究大军,不是他们最根本的优势所在吗?

我们已经亲眼见证了这一切。DeepSeek取得的突破绝非微不足道。试想一下,如果未来DeepSeek这类模型率先在华为的硬件体系上落地跑通,那对我们国家而言,将是一个极度可怕的结局。

主持人: 为什么这么说?我的意思是,目前只要是开源的,像DeepSeek这样的模型完全可以在任何加速器上运行。为什么未来这种局面会被打破呢?

黄仁勋: 假设情况并非如此。假设它是为华为优化的,为他们的架构优化的,那就会让我们处于劣势。你刚才描述的那个情景,在我看来恰恰是好消息:一家公司开发了软件,训练了AI模型,而它在美国的技术栈(Tech Stack)上运行得最好。

我认为这是好消息,而你却以此为前提,认为这是坏消息。我来告诉你什么才是真正的坏消息:如果在全球范围内开发出来的AI模型,运行效果最好的平台不是美国的硬件,这才是真正的坏消息。

主持人: 坦白说,我没看到有什么证据表明(不同硬件之间)存在如此巨大的差异,以至于让人无法更换加速器(Accelerators)。美国的实验室也在各大云服务商和各种平台上运行他们的模型。

黄仁勋: 我就是证据。你拿一个专为 NVIDIA 优化的模型,试着在其他平台上跑一下看看。美国的实验室确实这么试过,但运行效果并没有更好。NVIDIA 的成功就是最完美的证据。在我们的技术栈上构建的AI模型,在我们的技术栈上运行效果最好,这道理难道很难理解吗?

主持人: 我只是觉得,你看,Anthropic 的模型可以在 GPU 上运行,也可以在 Trainium(亚马逊自研AI芯片)和 TPU 上运行。

黄仁勋: 要想迁移平台,必须投入大量的工作。你去看看全球南方(Global South)国家,去看看中东,他们需要的是开箱即用(Out of the box)。如果所有AI模型都在别人的技术栈上运行得最好,而你却试图论证这对美国是件好事,那这种论调简直荒谬至极。

主持人: 但我不太理解这个逻辑。比如说,如果中国公司率先达成了下一个里程碑(Milestone),他们发现美国软件率先出现了各种安全漏洞,但他们可以在 NVIDIA 的硬件上运行并将其出口给全球南方国家,全部在 NVIDIA 的硬件上运行。这怎么算是一件好事呢?我的意思是,好吧,他们跑通了。

黄仁勋: 这当然不是好事。绝对不是好事。所以我们绝不能让这种情况发生。

主持人: 为什么你会认为算力是完全可替代的(Fungible)?如果你不卖给他们算力,就会被华为完全替代?他们目前是落后的,对吧?他们的芯片性能不如你们。这两者完全不……

黄仁勋: 现在就有现成的证据。他们的芯片产业规模极其庞大。

主持人: 你只需要对比一下 H200 和华为昇腾 910C,它的性能大概只有(H200的)一半。

黄仁勋: 那他们就多用一些,用两倍的数量。

主持人: 我觉得你的潜台词似乎是:他们有充足的能源准备就绪,对吧?他们需要用芯片来消耗这些能源。而且他们擅长制造。我确信他们最终肯定能做到自己制造一切,但中间这几年是关键时期。

黄仁勋: 你所说的“关键时期”到底是指什么?

主持人: 就是未来这几年,我们将拥有能够执行各种网络攻击(Cyber Attacks)的模型。

黄仁勋:如果接下来的这几年真的至关重要,那我们就更要确保,全球所有的AI模型都是构建在美国的技术栈之上。 就在这些关键的年份里。

主持人: 好吧,假如它们确实建立在美国的技术栈上,如果他们掌握了更高级的能力,这又怎么能阻止他们发动Mythos级别的网络攻击呢?

黄仁勋: 无论哪种情况,都无法提供绝对的保证。

主持人: 但如果我们能尽早掌握,就能提前做好防范。

黄仁勋: 听着,为什么你要让人工智能产业的其中一层失去整个市场,仅仅为了让另一层获益?AI产业有五个层级,每一层都必须成功。而最需要取得成功的,其实是AI应用层。 为什么你非要死盯着AI模型不放?死盯着那一家公司?到底是为了什么?

主持人: 因为正是这些模型催生了令人难以置信的攻击能力,而这需要庞大的算力(Compute)。

黄仁勋: 是能源、芯片,以及AI研究人员组成的整个生态系统,才让这一切成为可能。

主持人: 好,退一步讲,前提必须是中国有能力建设足够的 7 纳米产能。而且别忘了,他们仍停留在 7 纳米工艺。而你们将迈向 3 纳米、2 纳米,甚至 1.6 纳米的先进工艺。所以当你们达到 1.6 纳米时,他们依然还在 7 纳米。他们必须生产出足够庞大的数量来弥补性能上的差距。而且他们有极其充沛的能源,所以你给他们的芯片越多,他们拥有的算力就越多,对吧?所以归根结底,这是一个他们最终会获得更多算力的问题。而算力就是一切。

黄仁勋: 我觉得你把话说得太绝对了。我认为美国理应保持领先。美国的算力总量是世界上其他任何地方的 100 倍。美国理应领先,而且美国现在也确实遥遥领先。 NVIDIA 打造了最先进的技术,我们确保美国的实验室能第一时间获悉,并拥有优先购买权。如果他们资金不足,我们甚至会直接投资他们。

美国理应保持领先。我们希望竭尽所能确保美国领先。这是首要原则,你同意吗?我们正在倾尽全力做到这一点。但是,向中国出口芯片怎么就阻碍这一点了呢?

我们为美国打造了 Vera Rubin 架构(NVIDIA下一代AI芯片架构)。我们为美国带来了 Vera Rubin。那么,我身在美国吗?你认为我是美国的一部分吗?是的。NVIDIA 呢?你也认为 NVIDIA 是一家美国公司。好,这是第一点。

为什么我们不能制定一项更加平衡的法规,让 NVIDIA 能够赢下全球市场,而不是将世界拱手相让?你为什么希望美国放弃全球市场?芯片产业是美国生态系统的一部分,是美国技术领导力的一部分,更是AI生态系统和AI领导力不可或缺的一部分。为什么你的政策、你的理念,最终会导致美国放弃世界上如此广阔的市场?

主持人: 我想这里的核心观点可以引用达里奥(Dario)曾说过的一句话:这就像波音公司吹嘘我们在向朝鲜出售核武器,但因为导弹外壳是波音制造的,所以这在某种程度上赋能了美国的技术栈(Technology Stack)。从本质上讲,你是在给他们送去一份大礼。

黄仁勋: 将人工智能与你刚才提到的任何事物相提并论,简直是无稽之谈。

主持人: 但人工智能类似于浓缩铀(Enriched Uranium),对吧?它有积极的用途,也可能被恶意滥用,但你绝不会想把浓缩铀送到其他国家。

黄仁勋: 谁在输送浓缩铀……

主持人: 这里只是用浓缩铀做个类比。

黄仁勋: 因为这是一个非常糟糕的类比。

主持人: 就算这个类比不严谨。但如果这些算力运行的模型,能够对所有美国软件发起零日漏洞利用(Zero-day Exploits)攻击,这怎么能不算是一种武器呢?

黄仁勋: 首先,解决这个问题的途径是与研究人员对话,与中国对话,与所有国家对话,以确保人们不会将技术用于恶意途径。这是必须要进行的对话,明白吗?

其次,我们需要确保美国保持领先地位。从 Rubin、Vera Rubin 到 Blackwell 架构,这些顶尖技术在美国都有着充足且海量的供应,我们的业绩结果就能证明这一点。我们拥有极其庞大的计算能力和惊人的人工智能资源。这非常棒,我们也理应保持领先。

然而,我们必须清醒地认识到:人工智能不仅仅是一个模型,它是一块“五层蛋糕”,AI 产业在每一个层级都至关重要。 我们希望美国在每一个层级都能获胜,包括底层的芯片。直接放弃整个海外市场,根本无法让美国在芯片层或计算栈(Computing Stack)的长期技术竞赛中获胜。这就是铁一般的事实。

主持人: 那么问题的核心就在于,现在向他们出售芯片,究竟如何帮助我们在长期竞争中获胜?比如特斯拉长期向中国销售非常优秀的电动汽车,iPhone 也在中国大卖,产品极佳。但这并没有形成技术锁定(Lock-in)效应。中国依然造出了他们自己的电动汽车,并且在智能手机领域占据主导地位。

黄仁勋: 今天我们刚开始交谈时,你就承认了 NVIDIA 的地位与众不同。你用了“护城河(Moat)”这样的词。对于我们公司而言,最核心的资产就是我们无比丰富的生态系统,而这归根结底是关于开发者的。

全球 50% 的 AI 开发者都在中国。我们不想、不应该,美国也绝不应该放弃这片阵地。

主持人: 但我们在美国也有大量的 NVIDIA 开发者,这并不妨碍美国实验室未来去使用其他的加速器(Accelerators)。事实上,他们现在就在同时使用其他加速器,这很好。我不明白为什么在中国情况就会有所不同。就算你向他们出售 NVIDIA 芯片,他们也完全可以像谷歌那样,同时使用 TPU 和 NVIDIA 芯片。

黄仁勋: 我们必须保持创新。你可能也知道,我们的市场份额正在不断增长,而非下降。有一种论调认为,即使我们在中国竞争,最终也会输掉那个市场——但我告诉你,站在你面前的,绝不是一个自甘失败的人。这种“失败者心态”和“必败的伪命题”对我来说毫无逻辑可言。我们不是汽车,我们绝对不是汽车。

买一辆车,今天开这个品牌,明天换另一个品牌,这轻而易举。但计算(Computing)领域并非如此。x86 架构至今依然屹立不倒是有原因的,ARM 架构的用户粘性(Stickiness)如此之强也是有原因的。

这些生态系统极难被替代。迁移需要耗费海量的时间和精力,大多数人根本不愿意这么做。我们的使命,就是继续培育这个生态系统,不断突破技术边界,从而在市场竞争中立于不败之地。

基于你刚才描述的假设去拱手让出一个庞大的市场,是我绝对无法接受的。这毫无道理,因为我不认为美国是个失败者,也不认为我们的产业会失败。这种失败主义的命题和心态,对我来说纯属无稽之谈。

主持人: 好吧,我们换个话题。我只是想确保你能……

黄仁勋: 你不用换话题,我很享受这个讨论。

主持人: 好的,太好了,非常感谢。不过我认为,也许问题的症结——感谢你愿意陪我这样兜圈子深究,因为这有助于揭示真正的核心分歧所在。

黄仁勋: 分歧的症结在于你走向了极端。你的论点建立在极端假设之上:即如果在这个狭窄的时间窗口内,我们给他们提供哪怕一丁点算力,我们就会满盘皆输。这种非黑即白的极端思维,极其幼稚。

主持人: 我的意思并不是说存在某个算力的致命门槛,而是任何边际算力(Marginal Compute)都会起到推波助澜的作用,对吧?只要你有更多的算力,你就能训练出更强大的模型。

黄仁勋: 那我也只想让你承认,任何为美国科技产业带来的边际销售额,也都是大有裨益的。

主持人: 我其实并不这么认为。如果运行在这些芯片上的 AI 模型具备网络攻击(Cyber Offensive)能力,或者训练出的模型能够执行网络攻击,那么在这些时刻运行更多的模型,即使它不是核武器,但它实际上也赋能了一种新型武器。

黄仁勋: 按照你这种逻辑,你大可以把这套说辞套用到微处理器和内存(DRAM)上,你甚至可以把它套用到电力上。

主持人: 但事实上,我们确实对制造最先进 DRAM 的相关技术实施了出口管制(Export Controls)。我们对中国在各种技术领域都有着形形色色的出口管制。

黄仁勋: 但我们依然向中国销售了海量的 DRAM 和 CPU。

主持人: 我认为管制是正确的。这就又回到了最根本的问题:人工智能是不是截然不同的?如果你拥有一种能够轻易发现软件零日漏洞的技术,我们难道不应该极力限制中国捷足先登的能力吗?我们必须保持领先。

黄仁勋: 我们完全可以控制这一点。

主持人: 如果芯片已经卖过去了,而且他们正在用这些芯片训练模型,我们还怎么控制?

黄仁勋: 我们拥有海量的算力,拥有成千上万顶尖的 AI 研究人员,我们正在夜以继日地全力冲刺。

主持人: 我再重申一次,我们的核武器比任何人都多,但我们依然绝不会向任何地方输送浓缩铀。

黄仁勋: 我们卖的不是浓缩铀!那只是芯片,而且是他们自己也完全能够制造的芯片。

主持人: 但他们放着自己造的不买,偏偏来买你的,总是有原因的对吧?我们也有中国公司创始人的原话,他们承认在这项技术上遇到了瓶颈(Bottleneck)。

黄仁勋: 因为我们的芯片更胜一筹。综合来看,我们的芯片就是最顶尖的,这一点毋庸置疑。

但你能不能承认,在缺少我们芯片的情况下,华为依然创下了破纪录的业绩?你能不能承认,有一大批中国本土芯片公司已经成功上市?你又能不能承认,我们曾经在那个市场拥有绝对的统治地位,但现在这份优势已经荡然无存?

我们还必须正视现实:中国市场占据了全球科技产业约 40% 的份额。对于美国科技产业而言,贸然离开并拱手让出那个庞大的市场,是对我们国家利益的损害,是对国家安全的损害,更是对我们技术领导地位的损害。 难道付出这一切代价,仅仅是为了成就某一家竞争对手的利益吗?这对我来说简直荒谬至极。

主持人: 我有点困惑,你似乎在抛出两个自相矛盾的观点:一方面,你说只要允许我们公平竞争,凭借遥遥领先的芯片,我们终将赢下与华为的这场战役;另一方面你又说,就算没有我们,他们也照样能把这事做成。这两个观点怎么可能同时成立呢?

黄仁勋: 这当然说得通。当你没有更好选择时,你只能死磕眼前唯一的路。这在逻辑上有什么毛病?

主持人: 但他们之所以想要英伟达(NVIDIA)芯片,正是因为它们更强。更强意味着更大的算力,更大的算力意味着你能训练出更好的模型(train better models)。

黄仁勋: 更好是因为它更易于编程,并且我们拥有更繁荣的生态。无论“更好”的定义是什么,不争的事实是:我们正在享受美国技术霸权带来的红利。全球开发者都在美国的技术栈(Tech Stack)上添砖加瓦,随着这些AI模型向全球扩散,我们自然赚得盆满钵满。

因此,美国的技术栈是这一技术飞跃的最佳基石。我们可以持续创新,并将美国技术推向全球——我认为这是维持我们技术领先地位极其重要且积极的一环。

至于你所推崇的那些政策:正是这类做法,曾导致美国电信行业在国际市场上被“政策性出局”(Policied out),以至于我们现在连自己的基础设施都无法掌控。我绝不认为这是什么高明之举。

这种做法未免有些鼠目寸光,它引发了我刚才所说的那些意想不到的后果,而你似乎很难转过这个弯来。

主持人: 好,我们先退一步。现在的核心焦点是:这其中既有潜在收益,也有潜在代价,我们需要搞清楚的是:收益能否覆盖代价?

我希望你能承认一个潜在代价:算力是训练强大模型的核心输入要素。而强大的模型确实具备极强的攻击性,比如发起网络攻击。

美国公司率先摸到了Mythos-level能力的门槛,这固然是好事。现在他们选择暂缓释放这些能力,恰好给了美国企业和政府喘息之机,能在这种级别的能力面世前,将软件的安全护城河筑得更高。

如果中国拥有更多算力,掌握更大主导权,如果他们抢先搞出了Mythos-level模型并全网部署,那后果将不堪设想。这种噩梦之所以没有发生,正是因为我们算力更胜一筹——这都要归功于美国有英伟达这样的企业。这就是向中国出口算力所必须承受的代价。

所以,我们先抛开收益不谈。你承不承认,这是一个不容忽视的潜在代价?

黄仁勋: 我也要告诉你,真正的潜在代价是:我们亲手将AI技术栈中最核心的芯片层,拱手让出了全球第二大市场。这等于在逼着他们形成自己的规模效应,倒逼他们建立独立的生态系统。最终的结果就是,当未来AI席卷全球时,这些模型的底层优化路径,将与美国的技术栈彻底分道扬镳。

借由开源模型的力量,他们的标准、他们的技术栈,终将反超我们。

主持人: 我想我对英伟达的内核工程师和CUDA工程师有着绝对的信心,我相信他们能把优化做到……

黄仁勋: 你很清楚,AI远不止是内核优化这么简单。

主持人: 当然,但从模型蒸馏(Model Distillation)到精准适配,我们能打的牌还有很多。

黄仁勋: 我们自然会全力以赴。

主持人: 在整个软件层面上,我实在难以想象,仅仅因为他们暂时拥有一个稍好点的开源模型,就会让全球长期锁定在中国的生态系统里。

黄仁勋:中国是全球开源软件最大的贡献者,这是铁的事实。中国也是全球开源模型最大的贡献者,这也是事实。但时至今日,这一切依然构筑在美国的技术栈——也就是英伟达的底座之上。

事实上,AI技术栈的五个层级缺一不可,美国理应通吃这五层。但毫无疑问,重中之重是AI应用层。谁能让应用最深地扎根社会、用得最广,谁就能在这场工业革命中分得最大的蛋糕。

但我的核心观点是:每一层都必须赢。如果我们把AI妖魔化成核弹,搞得全国上下草木皆兵、谈AI色变,我不知道这算哪门子保卫美国,你这纯粹是在帮倒忙。

如果我们天天鼓吹AI会砸碎所有软件工程师的饭碗,吓得没人敢入行,导致美国最终面临软件人才断层,那就是在祸害美国。

如果我们到处宣扬计算机视觉技术“完全免费”,AI看片绝对比人准,吓得再也没人敢当放射科医生,那说明我们根本没分清什么是“职业(Job)”,什么是“任务(Task)”。放射科医生的“职业”是关怀患者,而阅片只是其中的一项“任务”。如果我们连这么核心的逻辑都搞错,吓退了所有医学生,未来美国连个看病的放射科医生都找不到,更别提什么高质量医疗了。

我想说的是,当你抛出那些极端预设,把所有事情都搞成非黑即白、非零即无穷时,我们最终只是在用虚假的幻想恐吓大众。现实世界根本不是这样运转的。

我们希望美国永远第一吗?当然。我们需要在技术栈的每一层都遥遥领先吗?毫无疑问。

我们今天讨论Mythos-level模型,是因为它至关重要吗?当然,这非常有意义。但我敢跟你打个赌,几年后,当美国迫切希望把自己的技术栈和标准输出到印度、中东、非洲和东南亚,推向全世界时,我希望我们还能坐在这里重温今天的对话。

到了那一天,我会一字不差地提醒你今天说了什么,我会让你看到,正是你所谓的政策和臆想,让美国在毫无正当理由的情况下,把全球第二大市场白白拱手让人。

我们绝不能不战而退。技不如人输了也就罢了,但凭什么主动认怂?现在没人在这里搞什么“全有或全无(All or nothing)”的极端主义,没人说要把所有的家底时刻都全盘卖给中国,根本没人这么提议。我们当然要把最好、最多、最先发的技术留在美国。

但与此同时,我们也必须在全球市场上厮杀并赢取胜利。这两者完全可以并行不悖。这需要我们以更成熟、更精细的眼光去博弈,而不是一刀切的极端主义。这世界从来不是非黑即白的。

主持人: 好,你论点的核心逻辑其实是:他们必然会针对自己的架构(即未来几年他们能造出的最好芯片)去定制化地训练模型,而一旦这些芯片卖到全世界,就会顺理成章地确立起一套新的标准。

诚然,受限于EUV(极紫外光刻机)的出口管制,全球产业正在大步迈向1.6纳米时代,而他们的7纳米技术恐怕还得硬撑好些年。在国内,他们依托庞大的能源优势和制造规模来死磕7纳米芯片,这在逻辑上完全说得通。

然而,一旦放眼出口市场,他们的7纳米芯片就必须与你们的1.6纳米芯片正面硬刚。这就倒逼着他们的模型必须对7纳米架构进行极其变态的深度优化,最终达到一种恐怖的效果:让这些模型在他们的7纳米硬件上跑起来,甚至比在你们的1.6纳米芯片上还要高效。

黄仁勋: 我们来看看事实吧。Blackwell 的光刻技术比 Hopper 先进 50 倍吗?是 50 倍吗?根本没那么夸张。我一直在反复强调,摩尔定律(Moore's Law)已经终结了。

从晶体管层面来看,从 Hopper 到 Blackwell,算它提升了 75% 吧。这两代产品相隔了三年,只有 75% 的提升。但 Blackwell 的性能却是 Hopper 的 50 倍。我的观点是:架构才是决胜的关键

计算机科学至关重要,半导体物理学当然也很重要,但计算机科学本身更为关键。人工智能的影响力很大程度上源于计算栈(Computing Stack),这就是 CUDA 为何如此高效且备受推崇的原因。它是一个生态系统,一种提供了极大灵活性的计算架构。如果你想彻底改变架构——比如创建混合专家模型(MOE, Mixture of Experts)、扩散模型(Diffusion Model),或者采用解构式架构(Disaggregated Architecture)——你完全可以做到,而且轻而易举。

事实在于,人工智能既取决于底层的硬件架构,也同样取决于上层的软件栈。只要我们拥有针对自身堆栈和生态系统高度优化的架构与软件栈,这显然是件好事。我们今天开头谈到 NVIDIA 的生态系统为何如此丰富,以及为什么人们总是首选基于 CUDA 进行编程。事实的确如此,中国的研究人员也不例外。

然而,如果我们被迫离开中国,首先,这将是一个政策上的错误。显然,这会产生反噬,对美国而言结果也很糟糕。这反而赋能并加速了中国芯片产业的发展,迫使他们所有的 AI 生态系统专注于自主架构。现在补救或许还不算太晚,但无论如何,这已经发生了。

未来你会看到,他们显然不会止步于 7 纳米。他们擅长制造,并且会继续从 7 纳米向更先进的工艺迈进。那么,5 纳米和 7 纳米之间会有 10 倍的性能鸿沟吗?答案是不会。架构至关重要,网络也至关重要。这就是为什么 NVIDIA 收购了 Mellanox。网络很重要,能效也很重要。所有这些因素都起着决定性作用,它绝不是你试图精简总结的那样简单化。

为什么 NVIDIA 不开发多种不同的芯片架构?

主持人: 我们可以跳过中国的话题,但这其实引出了一个有趣的问题。我们之前讨论了台积电(TSMC)的产能瓶颈以及内存等方面的问题。如果我们现在处于这样一个情况:你们已经是 N3 工艺的大客户,未来也会成为 N2 工艺的最大客户。你是否设想过回退到 N7 这样有空闲产能的成熟工艺节点?比如你们去说:“AI 的需求如此巨大,我们在尖端工艺上的产能扩张已经无法满足需求了。所以我们要用成熟工艺制造一款 Hopper 或 Ampere 架构的芯片,但会用上我们今天掌握的关于数值精度(Numerics)和所有其他方面的改进技术。” 你认为这种设想在 2030 年之前会发生吗?

黄仁勋: 没有必要这样做。原因在于,每一代产品的架构不仅仅是晶体管规模的放大。你还投入了大量的工程设计、先进封装(Packaging)、3D堆叠(Stacking)、数值精度以及系统架构的优化。

当你的先进制程产能耗尽,想要轻易退回成熟节点时,你会发现那需要付出无人能承受的研发(R&D)成本。我们有底气大步向前,但我认为我们承受不起倒退的代价。当然,如果做一个思想实验:假设真有那么一天,世界告诉我们“你们永远不可能获得更多产能了”,我会不会毫不犹豫地回到 7 纳米?是的,当然会。

主持人: 有人和我聊到一个问题:为什么 NVIDIA 不同时并行推进多个完全不同架构的芯片项目?例如,你可以做 Cerebras 那样的晶圆级芯片(Wafer Scale),也可以做 Dojo 那种庞大的封装系统,你甚至可以做一个完全脱离 CUDA 的架构。你拥有资源和工程人才来并行推进所有这些项目。考虑到没有人知道 AI 和架构未来会走向何方,为什么要把所有鸡蛋放在同一个篮子里?

黄仁勋: 我们当然可以。只是我们没有发现更好的方案。我们确实可以尝试所有这些路径,但它们并没有更胜一筹。我们对一切可能性都进行了模拟,而在我们的模拟器中,那些方案被证明效果更差。所以我们不会去做。

我们现在正在做的,正是我们最想推进的项目。如果未来的工作负载发生剧烈变化——我指的不是算法变了,而是工作负载的本质变了——而这取决于市场发展的 S 型曲线(S-curve)。

到那时,我们可能会决定引入其他类型的加速器。例如,面对近期像 Groq 这样的超低延迟需求,我们正将这种工作负载能力整合进我们的 CUDA 生态系统中。

我们之所以现在这么做,是因为 Token(词元)的价值已经飙升,以至于你可以为它们制定分层的定价模型。在过去,也就是仅仅几年前,Token 要么是免费的,要么成本极低。

然而现在,你面对的是多样化的客户群体,他们需要不同的响应速度。这些客户产出的价值极高——比如我们的软件工程师,如果我能为他们提供更强大的计算能力,让他们获得响应极快的 Token,从而大幅提升他们的生产力,我绝对愿意为此买单。但这种细分市场是最近才涌现的。因此我认为,我们现在有能力基于响应时间的快慢,为同一个模型划分出不同的服务层级。

这就是为什么我们决定突破现有的帕累托前沿(Pareto Frontier),开辟出一个响应时间极快、即便吞吐量稍低的推理细分市场。一直以来,人们总认为高吞吐量才是王道。但我们相信,未来会出现一个超高溢价 Token (High ASP Tokens)的市场,哪怕数据中心底层的吞吐量较低,高昂的溢价也足以弥补成本。这正是我们布局的原因。

但除此以外,从架构角度来看,我认为 NVIDIA 的现有架构非常强大;如果我有更多的资金,我会投入更多资源来进一步强化现有的架构。

主持人: 我认为这种超高端 Token(Premium Tokens)的概念以及推理市场的细分非常有意思。

黄仁勋: 是的,这正是市场细分(Segmentation)。

主持人: 好的,最后一个问题。假设深度学习革命(Deep Learning Revolution)没有发生,NVIDIA 现在会在做什么?显然是游戏领域,但考虑到……

黄仁勋: 我们现在做的,就是我们一直以来在做的事——**加速计算(Accelerated Computing)**。创立这家公司的初衷在于:虽然通用计算(General-purpose Computing)在很多场景下很好用,但应对许多特定类型的计算时却显得捉襟见肘。为了解决这个问题,我们将 GPU 和 CUDA 架构与 CPU 结合起来,加速 CPU 处理不了的工作负载,把各类代码内核或算法卸载(Offload)到 GPU 上。最终,这能让应用程序的运行速度提升 100 倍甚至 200 倍。

这项技术在工程、科学、物理学、数据处理、计算机图形学和图像生成领域有着广泛的应用。即使今天没有 AI,NVIDIA 仍然会是一家非常庞大的公司。我相信其根本原因在于:通用计算持续扩展的潜力已基本耗尽,前进的唯一出路在于领域专用加速(Domain-specific Acceleration)。

我们起步于计算机图形学,但受益于 CUDA 的远不止于此,还包括粒子物理学、流体动力学和结构化数据处理等众多领域。我们的使命是将加速计算推向全世界,去突破那些通用计算已经无能为力的应用瓶颈。早期的应用场景包括分子动力学(Molecular Dynamics)、用于能源勘探的地震波处理(Seismic Processing)以及图像处理——在这些领域,通用计算的效率实在太低了。

如果 AI 不存在,我会感到非常难过。然而,正是因为我们在计算领域取得的突破,我们才实现了**深度学习的民主化(Democratized Deep Learning)**。我们让世界上任何角落的研究人员、科学家或学生,只要拥有一台 PC 或一块 GeForce 显卡,就能进行伟大的科学研究。

这一根本承诺,时至今日都不曾有过一丝一毫的改变。

如果你去看看我们的 GTC 大会,你会发现整个开场演讲的很大一部分根本与 AI 无关。那些关于计算光刻(Computational Lithography)、量子化学(Quantum Chemistry)或数据处理(Data Processing)的内容,全都与 AI 无关,但它们依然举足轻重。

我知道 AI 非常有趣且令人兴奋,但同时也有许多人正从事着非 AI 领域的、极其重要的工作。张量(Tensors)绝不是唯一的计算方式,而我们的愿景是赋能每一个人。

主持人: Jensen,非常感谢你。不客气,这次聊得很开心。我也是。太棒了。

推荐阅读

创新之路,大道之行——WIC世界创新大会十年成长纪实

谢云龙:构建全球创新共同体 高标准打造世界创新大会国际合作平台

WIC世界创新大会概况(中英版)

文章来源:瓜哥AI新知属于原作者,本公众号仅用于公益宣传,转载请注明文章作者及来源,如有侵权请联系我们及时删除。

WIC世界创新大会创立于2017年,是立足中国、联接世界、具有全球影响力的国际创新合作平台,永久总部设于粤港澳大湾区。WIC以“探索未来、推动创新、促进全球合作”为主旨,以服务国家创新发展战略为根本遵循,以构建全球创新共同体、让创新造福人类为使命,致力于成为政界、科学界、工商界及国际组织深度交流合作的重要桥梁。

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-04-18 02:59:45 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/540283.html
  2. 运行时间 : 0.092122s [ 吞吐率:10.86req/s ] 内存消耗:4,854.05kb 文件加载:145
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=1841508f818e004f15cd519178a8e610
  1. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/autoload_static.php ( 6.05 KB )
  7. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/ralouphie/getallheaders/src/getallheaders.php ( 1.60 KB )
  10. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  11. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  12. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  13. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  14. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  15. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  16. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  17. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  18. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  19. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/guzzlehttp/guzzle/src/functions_include.php ( 0.16 KB )
  21. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/guzzlehttp/guzzle/src/functions.php ( 5.54 KB )
  22. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  23. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  24. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  25. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/provider.php ( 0.19 KB )
  26. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  27. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  28. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  29. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/common.php ( 0.03 KB )
  30. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  32. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/alipay.php ( 3.59 KB )
  33. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  34. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/app.php ( 0.95 KB )
  35. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/cache.php ( 0.78 KB )
  36. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/console.php ( 0.23 KB )
  37. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/cookie.php ( 0.56 KB )
  38. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/database.php ( 2.48 KB )
  39. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/filesystem.php ( 0.61 KB )
  40. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/lang.php ( 0.91 KB )
  41. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/log.php ( 1.35 KB )
  42. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/middleware.php ( 0.19 KB )
  43. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/route.php ( 1.89 KB )
  44. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/session.php ( 0.57 KB )
  45. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/trace.php ( 0.34 KB )
  46. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/view.php ( 0.82 KB )
  47. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/event.php ( 0.25 KB )
  48. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  49. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/service.php ( 0.13 KB )
  50. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/AppService.php ( 0.26 KB )
  51. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  52. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  53. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  54. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  55. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  56. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/services.php ( 0.14 KB )
  57. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  58. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  59. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  60. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  61. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  62. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  63. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  64. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  65. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  66. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  67. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  68. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  69. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  70. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  71. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  72. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  73. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  74. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  75. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  76. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  77. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  78. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  79. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  80. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  81. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  82. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  83. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  84. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  85. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  86. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  87. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/Request.php ( 0.09 KB )
  88. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  89. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/middleware.php ( 0.25 KB )
  90. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  91. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  92. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  93. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  94. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  95. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  96. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  97. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  98. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  99. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  100. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  101. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  102. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  103. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/route/app.php ( 3.94 KB )
  104. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  105. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  106. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/controller/Index.php ( 9.87 KB )
  108. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/BaseController.php ( 2.05 KB )
  109. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  110. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  111. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  112. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  113. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  114. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  115. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  116. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  117. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  118. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  119. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  120. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  121. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  122. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  123. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  124. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  125. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  126. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  127. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  128. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  129. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  130. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  131. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  132. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  133. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  134. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  135. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/controller/Es.php ( 3.30 KB )
  136. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  137. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  138. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  139. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  140. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  141. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  142. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  143. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  144. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/runtime/temp/c935550e3e8a3a4c27dd94e439343fdf.php ( 31.80 KB )
  145. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.000587s ] mysql:host=127.0.0.1;port=3306;dbname=wenku;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.000788s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000328s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000263s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.000508s ]
  6. SELECT * FROM `set` [ RunTime:0.000196s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.000497s ]
  8. SELECT * FROM `article` WHERE `id` = 540283 LIMIT 1 [ RunTime:0.000589s ]
  9. UPDATE `article` SET `lasttime` = 1776452385 WHERE `id` = 540283 [ RunTime:0.002427s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 64 LIMIT 1 [ RunTime:0.000238s ]
  11. SELECT * FROM `article` WHERE `id` < 540283 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.000428s ]
  12. SELECT * FROM `article` WHERE `id` > 540283 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.000374s ]
  13. SELECT * FROM `article` WHERE `id` < 540283 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.000679s ]
  14. SELECT * FROM `article` WHERE `id` < 540283 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.000880s ]
  15. SELECT * FROM `article` WHERE `id` < 540283 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.003322s ]
0.093893s