黄仁勋亲自“定义”英伟达:将“电子”转为“Token”的转换器

  英伟达 CEO 黄仁勋用一句话定义了自己的公司:输入是电子,输出是 Token,中间是英伟达。

  4 月 15 日,英伟达 CEO 黄仁勋接受播客主持人 Dwarkesh Patel 的深度访谈,内容涵盖英伟达的供应链护城河、TPU 竞争威胁,以及英伟达为何不自己做云服务等问题。

  英伟达:“电子 Token”转换器

  访谈开篇,主持人提出了一个尖锐问题:英伟达本质上只是写软件,芯片由台积电制造,内存由 SK 海力士、美光、三星提供,封装由台湾 ODM 厂商完成——如果软件被商品化,英伟达会不会也被商品化?

  黄仁勋给出了他对英伟达最精炼的定义:

最终,需要有某个东西把电子转化成 Token。把电子转化成 Token,并且让这些 Token 随时间变得更有价值,这件事很难被完全商品化。

  他进一步说:“输入是电子,输出是 Token,中间是英伟达。我们的工作是尽可能高效地完成这一转化。”

  在供应链层面,外界关注的焦点是英伟达的采购承诺规模——最新财报显示接近 1000 亿美元,行业分析机构 SemiAnalysis 预测这一数字未来可能达到 2500 亿美元。黄仁勋解释了这背后的逻辑:

如果未来几年是万亿美元规模,我们的供应链能支撑它。

  他说,这种能力并非单纯来自合同,而来自对上游 CEO 的持续“告知、激励和对齐”——让他们看清 AI 产业的规模和方向,然后愿意为英伟达的需求进行投资。CoWoS 封装是典型案例:两年前是全行业最紧缺的瓶颈,英伟达“连续几个翻倍”地扩产之后,现在已基本不再是话题。

  他判断,供应链上的任何瓶颈都不会持续超过两三年:“EUV 机器、逻辑产能、封装——这些东西都不难复制,只需要需求信号。”他认为真正的长期制约在下游:能源政策。“你不能在没有电力的情况下建立一个工业,这才是需要时间的事情。”

  TPU 竞争:没有一家敢来跑基准测试

  云巨头(Hyperscalers)贡献了英伟达约 60% 的收入,但谷歌、亚马逊、甚至 OpenAI 等大客户都在加码自研 TPU 或其他 ASIC 芯片,这直接质疑英伟达的竞争地位。

  黄仁勋的回应分两层。

  第一层是定性区分:英伟达做的是“加速计算”,而不是专用张量处理单元。加速计算覆盖分子动力学、流体力学、数据处理、量子计算等几乎所有科学计算领域,远比 AI 更宽。

我们是唯一一家加速所有类型应用的公司。

  第二层,黄仁勋称,球没有任何一个平台的性能和总拥有成本能优于英伟达,谷歌 TPU、亚马逊 Trainium 都无法与之匹敌,我并不认可 Trainium 所宣称的 40% 成本优势。英伟达毛利率能达到 70%,而 ASIC 芯片毛利率约为 65%,企业替换产品并不能实现显著的成本节省。

英伟达的计算栈是全球最佳性价比,没有例外。没有一家公司能向我证明,今天世界上有任何平台的 AI 数据中心的总拥有成本(TCO)比我们更好。没有。Dylan 的 InferenceMAX 摆在那里供所有人用,TPU 不来,Trainium 不来。

  对于 Anthropic 大量使用 TPU 的问题,黄仁勋直接回应:

Anthropic 是一个特例,不是趋势。没有 Anthropic,TPU 的增长从哪里来?是 100% 来自 Anthropic。没有 Anthropic,Trainium 的增长从哪里来?也是 100% 来自 Anthropic。

  他也坦承,早年未能及时向 Anthropic 进行战略投资是自己的判断失误:

当时谷歌和亚马逊 AWS 投入了大量资金,Anthropic 因此使用了他们的算力。我当时没有深刻意识到,风投根本不可能给一家 AI 实验室投 50 亿、100 亿美元。这是我的失误。但我不会再犯同样的错误。

  目前,黄仁勋已分别对 OpenAI 和 Anthropic 进行了大规模投资,据报道金额分别高达 300 亿和 100 亿美元。

  为什么不自己做云?“尽可能少做”是哲学

  手握巨额现金流,英伟达近期频频向 CoreWeave 等初创云服务商提供资金和算力支持。市场猜测,英伟达是否会越过客户,亲自下场做超大规模云服务商,收取算力租用费?

  黄仁勋的回答涉及公司哲学:

我们应该做尽可能必要的事,做尽可能少的事。我们做的这些事,如果我们不做,我真的相信它们就不会发生。但云服务?如果我不做,有人会来做的。

  他举了 CoreWeave、Nscale、Nebius 等“新云”作为例子——这些公司若没有英伟达的早期投资和支持,根本不会存在。但英伟达的介入是“让生态繁荣”,而不是转行做金融租赁或云计算运营。

  他对于“不挑赢家”也有明确表态:“当我投资其中一家,我会投资所有家。”理由是:英伟达自己当年在 60 家 3D 图形公司中几乎是被公认“最不可能活下来”的一家,“我有足够的谦逊来认识到这一点”。

  坚守卖铲人定位,GPU 分配绝不搞“价高者得”

  在供需极度失衡的背景下,英伟达如何分配紧俏的 GPU?黄仁勋明确否认了“价高者得”的市场传闻。

我们绝不会那样做,这是糟糕的商业行为。你定好价格,然后人们决定是否购买。

  黄仁勋解释了英伟达的分配逻辑:优先考察客户的排产预测和采购订单(PO),其次看客户数据中心的就绪程度,最终遵循先到先得的原则。“我更希望成为行业可靠的基石。如果你下达了 1000 亿美元的 AI 工厂订单,没问题,全世界只有我们能给你这种确定性承诺。”

  不会放弃全球第二大市场

  针对当前的芯片出口管制,黄仁勋从商业与技术标准的角度表达了务实的看法。

  他指出,算力只是 AI 产业的底层输入,当受到约束时,竞争对手可以通过堆叠更多能源、使用更多上一代芯片,以及优化算法来弥补硬件代差。

  他表示,首先要认识到:中国并不缺芯片。他们拥有全球顶尖的计算机科学家,众所周知,这些 AI 实验室里的 AI 研究人员有相当大比例是中国人。他们拥有全球约 50% 的 AI 研究人员。

他们是竞争对手,我们希望美国胜出,但我认为进行对话和研究交流可能是最安全的做法。放弃整个市场不会让美国长期在技术竞赛中在芯片层、计算堆栈中获胜。这是一个事实。

  CUDA 生态系统与飞轮效应

  英伟达的核心竞争壁垒就是成熟的开发者生态,GPU 全球装机量达到数亿级别,应用场景实现全面覆盖。

  行业发展飞轮效应清晰,依靠最大的装机量、可编程的架构、丰富的生态体系以及全球海量的 AI 公司,形成强劲发展动力。再加上性价比、能效、客户基数均处于全球领先地位,进一步推动发展飞轮持续运转。

  架构优势(对比 ASIC/TPU)

  黄仁勋表示,传统摩尔定律每年性能增长约 25%,想要实现 10 到 100 倍的性能飞跃,必须依靠算法与计算架构的双重革新。Blackwell 架构的能效相比 Hopper 架构提升 50 倍,这一成果绝非单纯依靠晶体管进步就能实现,架构优化与计算机科学创新才是核心关键。该架构支持全流程可编程以及全栈协同设计,依托 NVLink、Spectrum-X 技术实现,没有 CUDA 生态根本无法完成。

  对于产品路线图与发布节奏。黄仁勋透露,英伟达产品会保持年度稳定迭代,从 Vera Rubin 到 Vera Rubin Ultra,再到 Feynman,每年都会推出稳定升级的新品。同时我们是全球唯一一家,能够承接从 1000 万美元到 1000 亿美元任意规模 AI 算力订单的企业。

  访谈文字实录(略有删减)

  章节目录

  • (00:00:00) 英伟达最大的护城河,是否在于对稀缺供应链的掌控?
  • (00:16:25) TPU 能否打破英伟达对 AI 算力的垄断?
  • (00:41:06) 英伟达为何不转型为超大规模云服务商?
  • (01:35:06) 英伟达为何不同时开发多种不同的芯片架构?

  00:00:00——英伟达最大的护城河,是否在于对稀缺供应链的掌控?

  Dwarkesh Patel

  我们看到许多软件公司的估值大幅下跌,因为人们预期 AI 将使软件商品化。有一种可能过于简单的看法是:英伟达把 GDS2 文件发给台积电,台积电制造逻辑芯片和交换机,再与 SK 海力士、美光和三星生产的 HBM 一起封装,然后发往台湾的 ODM 厂商组装成机架。英伟达本质上是在做软件,而制造由他人完成。如果软件被商品化,英伟达是否也会被商品化?

  Jensen Huang

  归根结底,总需要有某种东西把电子转化为 Token。将电子转化为 Token,并持续提升 Token 的价值,这件事很难被彻底商品化。这个转化过程本身就是一段了不起的旅程——让这个 Token 变得有价值,就像让一个分子比另一个分子更珍贵,让一个 Token 比另一个 Token 更珍贵。其中涉及的艺术性、工程智慧、科学原理和创新发明,我们正在实时见证这一切的发生。这个转化过程、这套制造体系、所有的科学积累,远未被深刻理解,这段旅程也远未结束。我不认为商品化会发生。

  我们当然会持续提升效率。你描述问题的框架,正是我理解这家公司的方式:输入是电子,输出是 Token,英伟达在中间。我们的职责是:在实现这种转化的过程中,做一切必要的事,同时尽可能少做。所谓"尽可能少做",就是凡是我不需要亲自完成的,我都找合作伙伴来做,纳入我的生态系统。

  如果你今天审视英伟达,我们可能拥有全球最大的合作伙伴生态系统,上游有供应链,下游有所有计算机公司、应用开发者和模型创造者。AI 是一块五层蛋糕,我们在整个五层都拥有生态系统。我们尽可能少做,但我们必须亲自完成的那部分,恰恰是极其困难的事,我不认为那会被商品化。

  事实上,我也不认为企业软件公司或工具制造商会被商品化。如今大多数软件公司都是工具制造商,也有一些是工作流程编码系统。但就工具制造商而言,Excel 是工具,PowerPoint 是工具,Cadence 做工具,Synopsys 做工具——我看到的前景与很多人恰恰相反。我认为 AI 智能体的数量将会指数级增长,工具使用者的数量也将指数级增长,各类工具的实例数量极有可能会急速飙升。

  Synopsys Design Compiler 的实例数量很可能会急剧增加,使用平面规划器、布局工具和设计规则检查器的智能体数量也会如此。如今我们受限于工程师的数量,但将来,这些工程师将得到大批智能体的支持。我们将以前所未有的方式探索设计空间,而我们使用的,正是今天这些工具。

  我认为工具使用的爆发将推动软件公司的价值飙升。之所以尚未发生,是因为智能体使用工具的能力还不够强。未来,要么这些公司自己打造智能体,要么智能体本身足够强大,能够运用这些工具。我认为两种情况都会发生。

  Dwarkesh Patel

  根据你们最新的财务文件,英伟达在晶圆厂、内存和封装方面的采购承诺接近 1000 亿美元。SemiAnalysis 报道称,这类采购承诺总额将达到 2500 亿美元。有一种解读认为,英伟达真正的护城河,在于你们锁定了未来多年所需的稀缺元器件供应。竞争对手或许能做出一款加速芯片,但他们能拿到所需的内存来制造吗?能拿到逻辑芯片来制造吗?这真的是英伟达未来几年最大的护城河吗?

  Jensen Huang

  这是我们能做、而他人难以复制的事情之一。我们在上游做出了巨大承诺,有些是你提到的显性承诺,有些则是隐性的。举个例子,上游的许多投资,是由我们的供应链合作伙伴主动做出的,因为我曾对那些 CEO 们说:"让我告诉你这个行业将会有多大,让我解释为什么,让我和你一起推演,让我展示给你我所看到的未来。"

  正是通过这个告知、激励、与各行业上游 CEO 达成共识的过程,他们愿意做出投资。为什么他们愿意为我而不是为别人投资?因为他们知道,我有能力消化他们的产能,并通过我的下游渠道销售出去。英伟达的下游供应链规模和下游需求体量如此庞大,所以他们才愿意在上游持续投入。

  看看 GTC,人们惊叹于它的规模和与会者的构成——整个 AI 宇宙汇聚一堂,因为他们彼此都需要见到对方。我把他们聚在一起,让下游看到上游,上游看到下游,所有人共同见证 AI 的进步。更重要的是,他们都能亲眼看到那些 AI 原生公司、那些正在构建的 AI 初创企业,以及所有令人振奋的发展,亲身印证我所描述的一切。我花了大量时间,直接或间接地让我们的供应链、合作伙伴和生态系统,了解我们面前的机遇。

  有人说,在大多数科技发布会上,都是一个接一个的公告,但我们的发布会总有一部分有些"折磨人",因为它更像是在传授知识。事实上,这正是我的用意。我需要确保整个供应链的上下游,以及整个生态系统,都理解即将到来的是什么,为什么会来,什么时候会来,规模会有多大,并且能够像我一样系统地进行推演。

  关于你描述的护城河,我们之所以能够为未来做好准备,是因为:如果未来几年的规模达到万亿美元,我们有供应链来支撑它。没有我们的影响力和业务的高速运转——就像现金流带来供应链流动和业务周转——没有人会为一个业务周转率低的架构专门建设供应链。我们能够维持这种规模,恰恰是因为我们的下游需求如此旺盛,而他们看到了这一切,听到了这一切,一切都历历在目。这才使我们得以在如此规模上做成今天能做的事。

  Dwarkesh Patel

  我想更具体地了解,上游供应链能否跟上。多年来,你们的营收一直在逐年翻倍,每年向全球提供的算力也在以翻倍以上的速度增长。

  Jensen Huang

  而且在如今这个规模上继续翻倍,是真的了不起。

  Dwarkesh Patel

  正是如此。但再看逻辑芯片这一环——你们是台积电 N3 节点最大的客户,也是 N2 节点最大客户之一。根据 SemiAnalysis 的数据,AI 今年将占 N3 产能的 60%,明年将达到 86%。你已经是多数,还怎么翻倍?又如何年复一年地持续下去?我们是否已经进入了一个 AI 算力增长必须因上游瓶颈而放缓的阶段?你有没有破局之法?归根结底,我们怎样才能每年新建两倍的晶圆厂?

  Jensen Huang

  在某种程度上,瞬时需求始终大于全球的供给能力。在任何时刻,我们都可能受限于某一环节的产能——水暖工短缺就是个真实案例。

  Dwarkesh Patel

  水暖工要被邀请参加明年的 GTC 了。

  Jensen Huang

  其实这是个好主意。但瞬时需求大于总供给,本身是个好现象。你希望身处一个供不应求的行业,反过来才糟糕。如果某个特定元器件的缺口过大,整个行业就会蜂拥而至,集中攻克。举个例子,注意现在几乎没人再谈 CoWoS 了。

  原因就在于过去两年我们已经全力以赴、连续翻倍地扩产。如今 CoWoS 的供给已经相当充裕。台积电现在明白,CoWoS 的供给必须与逻辑芯片和内存的需求同步扩张,并以相同的节奏规模化 CoWoS 及未来的封装技术。这是一大进步——过去很长一段时间,CoWoS 和 HBM 内存都是相当小众的专业品,但如今它们已经是主流计算技术,整个行业都意识到了这一点。

  当然,我们现在也能对更广泛的供应链施加更大的影响。AI 革命之初,我今天所说的这些话,五年前我就已经在说了。一些人相信了并付诸行动,比如 Sanjay 和美光团队。我至今清楚地记得那次会议,当时我明确说明了即将发生什么、为什么会发生,以及对今日的预判。他们真的 All-in 了,我们在 LPDDR 和 HBM 内存领域开展了深度合作,他们为此大力投资,这对美光来说显然是一段非凡的旅程。有些人来得稍晚,但现在他们都到位了。

  每一个瓶颈都会受到高度关注,而我们现在已经提前数年预判下一个瓶颈。比如,过去几年我们在 Lumentum、Coherent 以及硅光子生态系统上的投资,从根本上重塑了供应链。我们围绕台积电构建了一整套供应链,与他们合作推进 COUPE 项目,发明了一系列新技术,并将这些专利授权给整个供应链,以保持其开放性。

  我们通过发明新技术、新工艺、双面探针测试等新型测试设备,以及投资企业、帮助其扩大产能等方式,主动塑造生态系统,确保供应链随时准备好支撑所需的规模。

  Dwarkesh Patel

  有些瓶颈似乎比其他的更容易解决。扩大 CoWoS 产能,对比扩大——

  Jensen Huang

  我直接说最难的那个。

  Dwarkesh Patel

  是什么?

  Jensen Huang

  水暖工,还有电工。这也是我对"末日论者"渲染工作终结、大规模失业的说法感到担忧的原因之一。如果我们把人吓退出软件工程这个行业,我们就会面临软件工程师短缺的问题。十年前也有过类似的预言——有些末日论者告诉大家,无论如何都不要去做放射科医生。你或许还能在网上找到这些视频,声称放射科会是第一个消亡的职业,世界将不再需要放射科医生。现在我们短缺的是什么?恰恰是放射科医生。

  Dwarkesh Patel

  回到刚才关于哪些东西可以扩展、哪些不能的话题——逻辑芯片的产量,究竟如何实现每年翻倍?归根结底,内存和逻辑芯片的产能都受限于 EUV 光刻机。我们怎样才能每年拥有两倍的 EUV 机器?

  Jensen Huang

  这些都不是短期内无法快速扩展的问题。在两三年内完全可以实现,关键是要有明确的需求信号。一旦你能造出一台,就能造出十台,造出十台就能造出一百万台。这些东西并不难复制。

  Dwarkesh Patel

  你会深入到供应链的哪个层级去沟通?比如,你会直接去找 ASML 说:"如果三年后英伟达要做到年营收两万亿美元,我们需要更多的 EUV 光刻机"吗?

  Jensen Huang

  有些情况需要我亲自去沟通,有些可以间接推动,还有些……如果我能说服台积电,ASML 自然也会被说服。我们需要着眼于关键的瓶颈节点——而如果台积电已经信服,几年内就会有充足的 EUV 机器。

  我的核心观点是,任何一个瓶颈的持续时间都不会超过两三年。与此同时,我们持续将计算效率提升 10 倍、20 倍,从 Hopper 到 Blackwell 甚至提升了 30 到 50 倍。我们通过 CUDA 的高度灵活性持续推出新算法,开发各种新技术,在扩大产能的同时不断驱动效率提升。这些问题我都不担心。真正令我忧虑的是我们下游的问题——能源政策阻碍了能源的发展,而没有能源,什么产业都建不起来。

  我们希望重新工业化美国,希望带回芯片制造、计算机制造和封装产业,希望构建新兴产业,比如电动汽车、机器人和 AI 工厂。而这一切都离不开能源,能源基础设施的建设需要很长时间。相比之下,扩大芯片产能是一个两到三年的问题,扩大 CoWoS 产能也是两到三年的问题。

  Dwarkesh Patel

  有意思。我感觉有些嘉宾告诉我的恰好相反,但在这个问题上,我自己没有足够的专业知识来判断谁对。

  Jensen Huang

  好在这次你在和行家聊。

  00:16:25——TPU 能否打破英伟达对 AI 算力的垄断?

  Dwarkesh Patel

  说得对。我想谈谈你的竞争对手。看全球排名前三的模型,Claude 和 Gemini 这两个,可以说都是在 TPU 上训练的。这对英伟达的未来意味着什么?

  Jensen Huang

  我们做的是截然不同的东西。英伟达做的是加速计算,而不是张量处理器。加速计算的应用范围极为广泛:分子动力学、量子色动力学、数据处理、数据框架、结构化数据、非结构化数据、流体动力学、粒子物理——此外,我们也将它用于 AI。

  加速计算的多样性要丰富得多。虽然 AI 是当下最热门的话题,影响力也显而易见,但计算的外延远比 AI 宽广。英伟达从根本上重新定义了计算范式,从通用计算转向加速计算。我们的市场覆盖范围,远超任何 TPU 或 ASIC 所能企及的边界。

  从我们的定位来看,英伟达是唯一一家能够加速各类应用的公司,我们拥有庞大的生态系统,各类框架和算法都能在英伟达上运行。

  因为我们的计算平台本就设计为可供他人运营,任何运营商都可以直接购买我们的系统。而那些自研系统,则大多只能自己运营,因为它们从未被设计成足够灵活、可供第三方运营的形态。正因为任何人都可以运营我们的系统,我们得以进驻每一朵云——包括谷歌、亚马逊、微软 Azure 和 OCI。

  如果你想以出租方式运营,就需要跨越众多行业拥有庞大的客户生态作为消化方。如果你想自己运营,我们完全有能力帮你实现,就像我们为马斯克的 xAI 所做的一样。而且,因为我们能够支持任何公司、任何行业的运营者,你可以用它为礼来这样的药企建造一台超级计算机,用于科学研究和药物发现,帮助他们自主运营,并将其应用于整个药物研发和生命科学领域——而这些,恰好都是我们能够加速的领域。

  有大量 TPU 根本无法处理的应用场景,我们都可以覆盖。英伟达在 CUDA 上构建出了出色的张量处理能力,同时也涵盖了数据处理、计算和 AI 的完整生命周期。我们的市场机遇更大,覆盖范围也更广。正因为我们支持世界上几乎所有应用,英伟达的系统可以部署在任何地方,并且都能找到用户,这是一种完全不同的竞争格局。

  Dwarkesh Patel

  这是一个比较长的问题。你们营收惊人,但你们一个季度赚 600 亿美元,不是靠制药或量子计算,而是因为 AI 是一项前所未有、以前所未有的速度增长的技术。

  问题在于,什么才是真正最有利于 AI 本身的?我自己没有深入研究过,但我的 AI 研究员朋友们说:"当我用 TPU 的时候,它是一个巨大的脉动阵列,非常适合做矩阵乘法;而 GPU 非常灵活,特别适合有大量分支或不规则内存访问的情形。"

  但 AI 到底是什么?就是一遍又一遍、非常规律地做矩阵乘法。你不需要为线程调度器或线程与内存库之间的切换牺牲任何芯片面积。而 TPU 恰恰就是针对这一需求——当前算力需求增长最快的那部分——高度优化的。我很好奇你对此有何看法。

  Jensen Huang

  矩阵乘法是 AI 的重要组成部分,但不是全部。如果你想开发新的注意力机制、以不同方式进行解耦,或者发明全新的架构——比如混合 SSM——你就需要一个通用可编程的架构。如果你想创建一个融合扩散模型和自回归技术的模型,你也需要一个通用可编程的架构。我们可以运行你能想到的任何算法,这正是核心优势——它让新算法的发明变得更加容易,因为它是一个可编程系统。

  正是这种发明新算法的能力,推动着 AI 如此迅速地向前演进。TPU 和所有其他东西一样,受到摩尔定律的约束,而摩尔定律每年带来的提升大约只有 25%。想要实现 10 倍乃至 100 倍的飞跃,唯一的途径是每年从根本上改变算法及其计算方式。

  这就是英伟达的根本优势所在。我们之所以能让 Blackwell 比 Hopper 提升 50 倍,正源于此——当我最初宣布 Blackwell 的能效将比 Hopper 提升 35 倍时,没有人相信。后来 Dylan 写了一篇文章,说我保守估计了,实际上是 50 倍。单靠摩尔定律是不可能做到这一点的。我们解决这个问题的方式,是通过新的模型架构,比如 MoE——它在一套计算系统中实现了并行化、解耦和分布式部署。如果没有 CUDA 的可编程性来做到这一点,我甚至不知道该从哪里下手。

  Dwarkesh Patel

  这触及了一个关于英伟达客户群的有趣问题。你们 60% 的营收来自五大超大规模云服务商。在早期不同的客户群体中——比如做实验的教授——他们需要 CUDA,无法使用其他加速器,只能在 CUDA 上运行 PyTorch,依赖全套优化。

  但这些超大规模云服务商有资源自己写内核。事实上,为了在自家特定架构上榨出最后5% 的性能,他们也不得不这样做。Anthropic 和谷歌主要运行自家加速器和 TPU、Trainium。就算是使用 GPU 的 OpenAI,也有 Triton——因为他们需要自己的内核。他们直接写到 CUDA C++ 层面,不用 cuBLAS 和 NCCL,而是构建了一套可编译到其他加速器的自有技术栈。

  如果你大部分的主要客户都能、并且确实在为自己的 CUDA 替代方案,CUDA 究竟在多大程度上还是让前沿 AI 在英伟达上发生的真正动因?

  Jensen Huang

  CUDA 是一个内容极为丰富的生态系统。如果你想要在任何计算机上率先构建,优先基于 CUDA 来开发,是极为明智的选择。因为生态系统如此丰富,我们支持所有框架。如果你想创建自定义内核——我们对 Triton 的贡献也是巨大的,Triton 的后端蕴含着大量英伟达的技术。

  我们很乐意帮助每一个框架发挥到极致。框架的种类繁多:Triton、vLLM、SGLang 等等。如今还有一批新的强化学习框架涌现,比如 verl 和 NeMo RL,后训练和强化学习整个领域正在爆炸式发展。所以,如果你想在某个架构上构建,首选 CUDA 是最明智的,因为你知道这个生态系统足够成熟。

  你知道,一旦出现问题,更可能是你自己的代码,而不是底层那座代码山。在构建这些系统时,当某个地方无法运行,到底是你的问题,还是计算机的问题?你希望问题永远在你这边,希望能信任这台计算机。当然,我们自己也还有很多 bug,但我们的系统经过了充分的验证,至少可以作为可靠的基础。这是第一点:生态系统的丰富性、架构的可编程性,以及整体的能力深度。

  第二点是,对于任何开发者来说,最重要的事情是安装基础。你希望自己写的软件能在尽可能多的计算机上运行,因为你不只是在为自己开发,而是在为自己的集群,或者作为框架开发者,为其他所有人的集群开发。英伟达的 CUDA 生态系统,是我们真正的核心财富。

  如今,我们大约有数亿张 GPU 分布在世界各地,每一朵云都有。从 A10、A100、H100、H200,到L系列、P系列,各种型号、各种规格都有。如果你是一家机器人公司,你希望这套 CUDA 技术栈能直接运行在机器人本身上。我们已经无处不在。庞大的安装基础意味着,一旦你开发了某个软件或模型,它就能在任何地方发挥价值,这本身就是极其宝贵的。

  最后,我们存在于每一朵云中,这使我们真正做到了独一无二。如果你是一家 AI 公司或开发者,你不一定清楚自己将来会与哪家云服务商深度合作,或在哪里运行。我们到处都能跑,包括本地部署。生态系统的丰富性、安装基础的广泛性,以及部署地点的多样性,共同铸就了 CUDA 无可替代的价值。

  Dwarkesh Patel

  这很有道理。我想追问的是,这些优势对你的主要客户来说是否真的举足轻重。在大多数情形下,真正有能力自己搭建整套软件栈的人——比如那些超大规模云服务商——恰恰贡献了你们大部分的营收。

  尤其是进入一个 AI 越来越擅长处理"强验证闭环"任务的世界——比如通过强化学习来优化内核性能,因为你可以对结果进行验证——那么,如何在规模化的前提下,为注意力机制或 MLP 写一个在各种配置下都最高效的内核,这是一个非常可验证的反馈闭环。

  超大规模云服务商都能自己写这些内核。英伟达在性价比上依然很强,所以他们可能仍然倾向于选择英伟达。但问题在于,这是否会变成一场单纯拼规格的竞争——谁在同样的价格下能提供更好的算力和内存带宽?历史上英伟达之所以能够拥有整个 AI 产业中最高的 70% 以上的毛利率——横跨硬件和软件——正是凭借 CUDA 的护城河。那么,当你的大多数主要客户都有能力自建替代方案时,你能守住这样的利润率吗?

  Jensen Huang

  我们派驻到各个 AI 实验室的工程师数量之多,令人咋舌——他们就在那里,与实验室团队并肩工作,持续优化技术栈。原因很简单:没有人比我们更了解自己的架构。这些架构并非像 CPU 那样的通用平台。CPU 有点像一辆凯迪拉克,舒适、稳健,永远不会太快,大多数人开起来都轻松自如,有巡航控制,一切都很简单。但在很多层面上,英伟达的 GPU 和加速器更像 F1 赛车——以时速 160 公里驾驶它或许谁都能做到,但要真正把它推到极限,需要相当深厚的专业功底。我们大量运用 AI 来打造我们的内核。

  我相当确信,我们在相当长的时间内仍然是不可或缺的。我们的专业能力能帮助 AI 实验室合作伙伴轻松从技术栈中榨出额外的 2 倍性能。我们经常见到这种情况:当我们完成技术栈或特定内核的优化之后,他们的模型加速了 3 倍、2 倍或 50%。这是一个巨大的数字,尤其当你考量到他们庞大的硬件规模——那些 Hopper 和 Blackwell 的集群——性能提升两倍,就等于营收翻倍,直接转化为收入增长。

  英伟达的计算技术栈在全球范围内拥有最佳的总拥有成本(TCO)性价比,没有例外。没有任何一个平台能向我证明,今天全球存在比我们更优的性能/TCO 比。没有一家。事实上,相关基准测试公开摆在那里:Dylan 的 InferenceMAX 就在那,所有人都可以用,但没有一家——TPU 不来,Trainium 也不来。

  我一直鼓励他们使用 InferenceMAX,来展示他们出色的推理成本。但这很难,没有人愿意出现。MLPerf 也是如此。我非常欢迎 Trainium 来证明他们一直宣称的那 40%,我也很想看看 TPU 在成本优势上的实际表现。这在我看来毫无道理,从第一性原理出发根本说不通。

  所以,我认为我们之所以如此成功,根本原因就在于我们的 TCO 是极其出色的。其次,你说 60% 的客户是前五大云服务商,但其中大部分业务是面向外部客户的。比如,英伟达在 AWS 上的大部分,是为外部客户服务的,而非 AWS 自用。英伟达在 Azure 上的客户,显然都是外部客户。在 OCI 上的客户,也都是外部客户,并非自用。他们之所以偏爱我们,是因为我们的覆盖范围极其广泛,能够为他们带来全球最优质的客户群。这些公司都建立在英伟达之上,而原因正是我们无可比拟的覆盖面与灵活性。

  所以,我认为这个飞轮的运转逻辑,是:安装基础、架构的可编程性、生态系统的丰富性,以及全球 AI 公司的数量。如今有数以万计的 AI 公司,如果你是其中一家,你会选择哪种架构?你会选择全球最普及的那个——我们是最普及的;你会选择安装基础最大的那个——我们拥有最大的安装基础;你会选择生态系统最丰富的那个。

  这就是飞轮。我们的每美元算力性价比极高,客户能以最低的成本生产 Token;我们的每瓦算力性能全球最强——如果我们的合作伙伴建造一座 1 吉瓦的数据中心,这 1 吉瓦必须要产生最大的营收和 Token 数量。你希望它产出尽可能多的 Token,让这座数据中心的收益最大化——我们拥有全球每瓦 Token 产出最高的架构。最后,如果你的目标是出租基础设施,我们在全球拥有最多的客户,这就是飞轮得以运转的原因。

  Dwarkesh Patel

  有意思。问题归根结底是:实际的市场格局是怎样的?即便有其他公司存在,也可以存在一个数以万计的 AI 公司大致均等地分配算力的世界。但即使通过这五大超大规模云服务商,真正使用那些算力的,也是 Anthropic、OpenAI 以及这些大型基础模型实验室——它们本身就有资源和能力,让不同的加速器跑通自己的模型。

  Jensen Huang

  不,我认为你的前提是错误的。

  Dwarkesh Patel

  也许吧。但让我换个角度问你。

  Jensen Huang

  回头记得让我来纠正你的前提。

  Dwarkesh Patel

  好的。让我先换一个问题。

  Jensen Huang

  但一定要记得让我回来纠正,因为这对 AI 太重要了,对科学的未来太重要了,对这个行业的未来太重要了。这个前提……

  Dwarkesh Patel

  让我先把问题说完,然后我们一起来讨论。

  Jensen Huang

  好。

  Dwarkesh Patel

  如果你所说的这些关于价格、性能、每瓦性能等等都是事实,你认为为什么 Anthropic 就在几天前宣布了一项与 Broadcom 和谷歌合作、涉及多吉瓦规模、大量使用 TPU 的计算协议?对谷歌来说,TPU 显然是主流算力。所以当我审视这些大型 AI 公司时,它们的相当大一部分算力……曾经全是英伟达,但现在已经不是了。如果这些优势都是真实存在的,那我很想知道,为什么它们会选择其他加速器?

  Jensen Huang

  Anthropic 是个特殊案例,不代表趋势。如果没有 Anthropic,TPU 的增长从何而来?那 100% 是 Anthropic 带动的。如果没有 Anthropic,Trainium 的增长从何而来?也是 100% 来自 Anthropic。我认为这一点大家都相当清楚。这并不说明 ASIC 机会遍地开花,只是恰好有 Anthropic 这样一家公司存在。

  Dwarkesh Patel

  但 OpenAI 和 AMD 有合作,他们也在自研 Titan 加速芯片。

  Jensen Huang

  是的,但我想大家都承认,他们仍然以英伟达为主。未来我们还会一起做很多工作。别人尝试其他方案,我并不介意。如果他们不去尝试,又怎么知道我们有多好?有时候需要对比才能体会到。我们必须持续赢得现有的地位。

  总会有很多宏大的声明,但看看有多少 ASIC 项目已经被取消。仅仅是打算造一块 ASIC,你还得造出比英伟达更好的东西。造出比英伟达更好的东西,并不那么容易,说实话,并不容易。英伟达必然是某个地方存在明显短板,才能被超越。凭借我们的规模和速度,我们是全世界唯一一家每年都在持续突破、每年都有重大飞跃的公司。

  Dwarkesh Patel

  我想他们的逻辑是:"它不需要更好,只要别比英伟达差 70% 就行",因为他们在给你付 70% 的利润率。

  Jensen Huang

  别忘了,ASIC 的利润率也相当高。英伟达的毛利率比如说是 70%,ASIC 的毛利率大概是 65%,你真正省下来多少?

  Dwarkesh Patel

  你是说像 Broadcom 这样的公司吗?

  Jensen Huang

  是啊。你总得付给谁。据我所知,ASIC 的利润率极为可观,他们自己也心知肚明,对自己出色的 ASIC 利润率相当引以为豪。

  说到你问的"为什么",很久以前,我们在财务上就是没有能力这样做。当时,我也没有深刻意识到,打造一家像 OpenAI 和 Anthropic 这样的基础 AI 实验室有多艰难,以及它们需要供应商本身做出巨额投资。我们当时根本没有能力向 Anthropic 投入数十亿美元,支持他们使用我们的算力。但谷歌和 AWS 做到了。他们从一开始就大力投资,换来的是 Anthropic 使用他们的算力。我们当时真的没有那个能力。

  我说自己的失误,在于没有深刻认识到:他们其实别无选择,风险投资根本不可能向一家 AI 实验室投入五十亿甚至一百亿美元,指望它成为另一个 Anthropic。这是我的疏漏。但即使当时我看清楚了,以英伟达彼时的规模,也未必能做到。不过这个错误我不会再犯了。

  我很高兴能够投资 OpenAI,很高兴帮助他们扩大规模,我也认为这是必须做的事。后来当 Anthropic 向我们走来的时候,我也很高兴成为他们的投资人,帮助他们扩大规模。只是在那时,我们确实没有能力这样做。如果可以把一切倒回去——如果当年英伟达就像今天这么大——我会毫不犹豫地去做。

  00:41:06——英伟达为何不转型为超大规模云服务商?

  Dwarkesh Patel

  这其实相当耐人寻味。多年来,英伟达一直是 AI 领域赚钱最多的公司,现在你们开始把这些钱投出去。据报道,你们在 OpenAI 投入了高达 300 亿美元,在 Anthropic 投入了 100 亿美元。但如今它们的估值已经大幅攀升,而且相信还会继续上涨。

  这么多年来,如果你们一直在为它们提供算力,也清楚地看到行业走向,而它们的估值在几年前——或者就在一年前——还只有今天的十分之一,而你们又握有大量现金,那么完全可以有另一种选择:要么英伟达自己成为一家基础模型实验室,要么以现在更低的估值更早做出这些投资。你们完全有这个财力。所以我很想知道,为什么没有早点这样做?

  Jensen Huang

  我们在能够做的时候就做了。在条件允许的那一刻,我们就行动了;如果能更早,我会更早。在 Anthropic 需要我们出手的时候,我们在财务上和认知上都没有准备好。

  Dwarkesh Patel

  怎么说?是资金问题吗?

  Jensen Huang

  是投资规模的问题。当时我们从未在公司外部做过这个量级的投资,也没有意识到这样做是必要的。我一直以为他们可以去找风险投资,就像所有公司那样。但他们想做的事,根本不是通过 VC 能够完成的。OpenAI 想做的事,VC 也做不到。这一点我现在明白了,但当时不知道。

  这正是他们的高明之处,也是他们的智慧所在。他们当时就意识到必须走这条路。我为此感到高兴。即使因为我们的缺席,Anthropic 不得不转向其他方,我仍然为这件事感到庆幸。Anthropic 的存在对这个世界是一件好事,我真心希望它存在。

  Dwarkesh Patel

  不过你们现在仍在大量赚钱,而且季度利润还在持续增长。

  Jensen Huang

  即便如此,还是可以有遗憾的。

  Dwarkesh Patel

  那问题仍然存在。好,现在我们来到了今天这个节点,手握越来越多的现金,英伟达接下来应该怎么用这些钱?有一种选择是:如今已经形成了一个专门将资本支出(CapEx)转化为运营支出(OpEx)的中间商生态系统,这些新型云服务商可以为 AI 实验室提供算力出租服务。因为芯片价格昂贵,但在整个生命周期内盈利丰厚,而 AI 模型不断进步,使得它们生产的 Token 价值持续提升。这些芯片部署成本高,但英伟达有钱来承担这笔 CapEx。据报道,你们还在为 CoreWeave 提供高达 63 亿美元的背书,并已投资 20 亿美元。

  英伟达为什么不自己做云服务?为什么不自己成为超大规模云服务商,直接出租这些算力?你们有足够的现金。

  Jensen Huang

  这是公司的经营哲学,我认为它是正确的:做一切必要的事,尽可能少做。这意味着,我们在构建计算平台这件事上所付出的努力,如果不是我们来做,我真诚地相信,没有人会去做。如果我们不承担我们承担的风险——如果我们没有以那样的方式构建 NVLink,没有构建整个技术栈,没有打造那个生态系统,没有在二十年里持续耕耘 CUDA 并在大部分时间里处于亏损——如果我们当初没有这样做,没有人会这样做。

  如果我们没有创建所有 CUDA-X 领域专用库——十五年前我们就开始推进领域专用库的建设,因为我们意识到如果不这样做,无论是光线追踪、图像生成,还是早期的 AI 模型,还是数据处理、结构化数据处理、向量数据处理,这些库如果不是我们来做,没有人会做。我对此深信不疑。我们为计算光刻创建了 cuLitho 这个库,如果不是我们,也不会有人做。所以,如果我们没有做这些工作,加速计算就不会取得今天的进展。

  这些事,我们应该做。我们应该全力以赴,倾公司之力去做。但是,世界上有很多云服务。即使我们不做,也会有人站出来做。所以,遵循"做必要的事、尽可能少做"这一哲学,我用这个视角审视我做的每一件事。

  具体到云服务商,如果不是我们支持 CoreWeave 的存在,这些新型 AI 云就不会存在。如果不是我们帮助 CoreWeave 起步,它们就不会有今天。如果不是我们支持 Nscale,它们不会走到今天。如果不是我们支持 Nebius,它们也不会有今天的成就。现在它们都做得非常出色。

  这是一个我们应该投入的商业模式吗?我们做必要的事,尽可能少做。我们投资生态系统,是因为我希望生态系统繁荣,希望这个架构和 AI 能够连接尽可能多的行业和国家,让整个星球都能建立在 AI 之上,建立在美国技术栈之上。这正是我们追求的愿景。

  我提到的另一件事是,有这么多出色的基础模型公司,我们尽力投资所有的公司。这是我们做事的另一个方式:不挑赢家。我们需要支持所有人。这既是我们乐于做的,也是我们业务上的迫切需要。但我们也刻意不去挑赢家。所以每当我投资其中一家,我也会投资其他所有家。

  Dwarkesh Patel

  为什么你特别刻意地不去挑赢家?

  Jensen Huang

  第一,这不是我们的职责。第二,英伟达刚成立时,市场上有 60 家 3D 图形公司,我们是唯一一家存活下来的。如果当时有人要从这 60 家里预测谁能最终胜出,英伟达大概会排在最不可能的那一梯队。

  这是在你出生之前的事了,但英伟达当年的图形架构方向是"恰好走错了"——不是稍微偏了点,而是完全走错了方向。我们从扎实的第一性原理出发来推演,但最终走到了一个错误的答案,开发出了一个开发者几乎无法支持的架构,看起来毫无未来可言。当时每个人都会把我们排除在外。但你看,我们在这里。

  这份经历让我有足够的谦逊去认识到:不要挑赢家。要么放手让他们各自证明自己,要么把所有人都扶持起来。

  Dwarkesh Patel

  有一件事我没明白。你说,"我们支持这些新型云服务商,并不只是为了扶持他们而扶持他们。"但紧接着你又列举了一批新型云服务商,说如果没有英伟达,它们就不会存在。这两句话怎么能并立?

  Jensen Huang

  首先,他们自己要有存在的意愿,要主动来寻求我们的帮助。当他们有意愿存在、有商业计划、有专业能力和热情,也具备必要的实力,但在起步阶段需要一些投资才能落地时,我们会在那里。但我们的目标是,他们的飞轮越快自转越好。

  你的问题是,我们是否想做融资业务?答案是不。有专门做融资的机构,我们宁愿与所有这些机构合作,而不是自己成为一个融资方。我们的目标是专注于我们所做的事,保持商业模式的简洁,支持我们的生态系统。

  当 OpenAI 这样的公司在 IPO 之前需要三百亿美元规模的融资,而我们深信他们,深信他们已经是一家非凡的公司、将来也必然是一家卓越的公司,世界需要他们存在,我也需要他们存在,他们有强劲的发展势头,那就让我们支持他们,帮助他们扩大规模。这样的投资我们会做,因为他们需要我们。但我们并不是努力做尽可能多的事——我们是做尽可能少的事。

  Dwarkesh Patel

  这也许是个显而易见的问题,但我们已经在这种 GPU 短缺的状态下生活了好多年,随着模型不断进步,这种短缺还在加剧。

  Jensen Huang

  我们确实面临 GPU 短缺。

  Dwarkesh Patel

  是的。英伟达以非单纯竞价方式来分配稀缺的配额,而是会说:"我们希望确保这些新型云服务商存活下去,给 CoreWeave 一些,给 Crusoe 一些,给 Lambda 一些。"这对英伟达有什么好处?首先,你是否认同我这个"分散市场"的描述?

  Jensen Huang

  不。不,你的前提是错的。我们对这些事情相当用心。首先,如果你不下采购订单,说再多也没用。在我们收到采购订单之前,我们能做什么?所以,第一件事是我们与各方努力完成预测,因为这些东西需要很长时间来制造,数据中心的建设也需要很长时间。我们通过预测来对齐供需关系,这是第一要务。

  第二,我们努力与尽可能多的合作伙伴完成预测,但归根结底,你还是必须下订单。也许因为某种原因,你没有及时下单,我能怎么办?到了某个节点,就要先来先得。但除此之外,如果你因为数据中心没有准备好,或者某些组件还没到位,暂时无法搭建数据中心,我们可能会决定先服务另一个客户,这是为了最大化我们自己工厂的产出,我们可能会做一些这样的调整。

  除此之外,排序原则就是先来先得,你必须下采购订单。当然,网上有各种传言,比如那篇关于 Larry Ellison 和埃隆·马斯克与我共进晚餐、向我"乞讨"GPU 的文章。这从来都没有发生过。我们确实一起吃了晚饭,那是一顿很愉快的晚餐,但他们从始至终没有"乞讨"过 GPU,他们只是下了订单而已。一旦他们下了订单,我们就会尽力满足产能。我们没有那么复杂。

  Dwarkesh Patel

  好的。听起来,流程上有一个队列,根据你的数据中心是否准备就绪,以及你何时下了采购订单,来决定供货时间。但这听起来并不是价高者得。有什么原因不这样做吗?

  Jensen Huang

  我们从来不这样做。

  Dwarkesh Patel

  好的。

  Jensen Huang

  从来不。

  Dwarkesh Patel

  为什么不直接价高者得?

  Jensen Huang

  因为这是不好的商业行为。你定好价格,客户决定买不买。我知道芯片行业有人在需求旺盛时涨价,但我们从来不这样做,这从来就不是我们的做法。你可以信赖我们。我更希望成为行业的基石,一个可以依赖的存在。你不需要猜测。我给你报了一个价,就是这个价,就算需求冲到天上也好,随它去。

  Dwarkesh Patel

  另一面,这也是你们与台积电保持良好关系的原因,对吧?

  Jensen Huang

  是的,英伟达与台积电的合作已经差不多三十年了。英伟达和台积电之间并没有正式的法律合同,有时我占了便宜,有时我吃了亏,但总体而言,这段关系非常出色,我可以完全信任他们,完全依赖他们。

  英伟达有一件事你可以确定:今年,Vera Rubin 会非常出色;明年,Vera Rubin Ultra 会来临;后年,Feynman 会到来;再下一年,我还没公布名字。你可以每年都指望我们。全球你去找另一个 ASIC 团队,任何一个,你能说"我可以把我的全部身家都押在你身上,相信你每年都会出现,每年的 Token 成本都会下降一个数量级,我可以像信赖时钟一样信赖你"——我刚才说的是台积电,历史上没有哪家晶圆厂能让你这么说,但今天你可以这样说英伟达。

  如果你想购买价值 10 亿美元的 AI 算力工厂,没问题;1 亿美元,没问题;1000 万美元或一个机架,没问题;一张显卡,也没问题;想下一笔 1000 亿美元的 AI 算力工厂订单,没问题。今天全球只有我们一家公司可以这么说。

  我对台积电也一样:买一台,买十亿台,没问题,只需要走正常的计划流程。英伟达作为全球 AI 产业基石的地位,是用数十年的巨大承诺和奉献换来的。我们公司的稳定性和一致性,是极其重要的。

  关于中国竞争 Dwarkesh Patel

  好,我想聊聊中国这个话题。

  Jensen Huang

  首先,Mythos 是在相当普通的算力规模上训练出来的,由一家非凡的公司完成。它所使用的算力规模和类型,在中国是完全可以获得的。所以,首先要认识到:中国并不缺芯片。

  他们生产全球约 60% 的主流芯片,甚至可能更多,这对他们来说是个庞大的产业。他们拥有全球顶尖的计算机科学家,众所周知,这些 AI 实验室里的 AI 研究人员有相当大比例是中国人。他们拥有全球约 50% 的 AI 研究人员。所以问题是:考虑到他们已经拥有的这些资产——充裕的能源、大量的芯片、大多数 AI 研究人员——如果你担忧他们,创造一个安全世界的最佳方式是什么?

  他们是竞争对手,我们希望美国胜出,但但我认为进行对话和研究交流可能是最安全的做法。

  当然我们希望美国拥有尽可能多的计算资源。我们受到能源的限制,但我们有很多人在努力解决这个问题。我们不能让能源成为我们国家的瓶颈。但我们还希望确保世界上所有的 AI 开发者都在美国技术栈上进行开发,并将 AI 的进步——尤其是开源的——提供给美国生态系统。创建两个生态系统将是极其愚蠢的:一个开源生态系统,它只能在一个外国技术栈上运行;以及一个封闭的生态系统,它在美国技术栈上运行。我认为这对美国来说将是一个可怕的结局。

  认为英伟达是一家美国公司吗?好的。第一,为什么我们不制定一个更平衡的法规,让英伟达可以在全球获胜,而不是放弃世界?你为什么要让美国放弃世界?

  芯片行业是美国生态系统的一部分。它是美国技术领先地位的一部分。它是 AI 生态系统的一部分。它是 AI 领先地位的一部分。为什么你的政策、你的哲学会导致美国放弃世界市场的巨大一部分?

  首先,解决这个问题的方法是与研究人员对话,与中国对话,与所有国家对话,确保人们不会那样使用技术。这是必须进行的对话。好的。第一点。

  第二点,我们还需要确保美国领先,确保 Vera Rubin、Blackwell 在美国丰富、大量地可用。显然,我们的结果会显示这一点。丰富,大量的。我们拥有的计算资源很棒。我们这里有很棒的 AI 研究人员。很棒。我们应该保持领先。

  然而,我们也必须认识到,AI 不仅仅是一个模型。AI 是一个五层蛋糕。AI 产业在每一层都很重要,包括芯片层。放弃整个市场不会让美国长期在技术竞赛中在芯片层、计算堆栈中获胜。这是一个事实。

  为了美国技术产业放弃那个市场,是对我们国家的伤害。

  01:35:06 – 英伟达为什么不制造多种不同的芯片架构?Dwarkesh Patel

  我们之前讨论了台积电、内存等方面的瓶颈。

  所以,如果我们处在一个你已经是 N3 节点主要客户的世界里——在某个时候你会用到 N2,并且你会是 N2 的主要客户——你是否认为你可以回到 N7 节点,一个更旧工艺节点的闲置产能,然后说,“嘿,对 AI 的需求如此巨大,而我们扩展前沿节点的能力无法满足它,所以我们将制造一个 Hopper 或 Ampere,但使用我们今天所知道的关于数值运算的所有知识以及你描述的所有其他改进”?你认为在 2030 年之前这种情况会发生吗?

  Jensen Huang

  没有必要。原因在于,每一代架构不仅仅是晶体管尺寸的问题。你在做大量的工程、封装和堆叠工作,以及数值运算和系统架构。

  当你产能耗尽时,轻松回到另一个节点……那是一种没人能负担得起的研发水平。我们能够承担向前推进的成本。我认为我们承担不起回头。现在,如果世界只是说……如果在那一刻,让我们做个思想实验,在那一刻我们被告知,“听着,我们再也不会有更多的产能了。”我会回去用 7 纳米吗?毫不犹豫地,我当然会。

  Dwarkesh Patel

  我交谈过的人有一个问题,为什么英伟达不同时运行多个完全不同架构的芯片项目?你可以做一个 Cerebras 风格的晶圆级芯片。你可以做一个 Dojo 风格的大封装。你可以做一个没有 CUDA 的。你有资源和工程人才可以并行做所有这些。那么,鉴于谁知道 AI 和架构可能会走向何方,为什么要把所有鸡蛋放在一个篮子里呢?

  Jensen Huang

  哦,我们可以。只是我们没有更好的主意。我们可以做所有那些事情。只是它们不是更好的。我们在模拟器中模拟了所有,证明它们更差。所以我们不会去做。我们正在做的正是我们想要做的项目。如果工作负载发生巨大变化——我指的不是算法,我实际上指的是工作负载,这取决于市场的形态——我们可能会决定增加其他加速器。

  例如,最近我们增加了 Groq,我们计划将 Groq 整合到我们的 CUDA 生态系统中。我们现在正在这样做,因为 Token 的价值已经变得如此之高,以至于你可以有不同的 Token 定价。在过去,仅仅几年前,Token 要么免费,要么几乎不贵。但现在你可以有不同的客户,这些客户想要不同的答案。因为客户赚了很多钱——例如,我们的软件工程师——如果我能给他们响应更快的 Token,让他们比今天更高效,我愿意为此付费。

  但那个市场最近才出现。所以我认为我们现在有能力根据响应时间,为同一个模型提供不同的细分市场。这就是为什么我们决定扩展帕累托前沿,创建一个响应时间更快的推理细分市场,即使它的吞吐量较低。直到现在,更高的吞吐量总是更好。我们认为可能存在一个世界,其中可能有非常高 ASP(平均售价)的 Token,即使工厂的吞吐量较低,ASP 也能弥补这一点。

  这就是我们这样做的原因。但除此之外,从架构的角度来看,如果我有更多的钱,我会把更多的钱投入到英伟达的架构背后。

  Dwarkesh Patel

  我认为这种极致优质的 Token 和推理市场的分解是一个非常有趣的想法。

  Jensen Huang

  它的细分。

  Dwarkesh Patel

  是的。好了,最后一个问题。假设深度学习革命没有发生。英伟达会在做什么?显然是游戏,但考虑到——

  Jensen Huang

  加速计算,和我们一直在做的一样。我们公司的前提是摩尔定律将……通用计算对很多事情有好处,但对很多计算来说并不理想。

  所以我们结合了一种称为 GPU、CUDA 的架构和一个 CPU,这样我们就可以加速 CPU 的工作负载。不同的内核代码或算法可以被卸载到我们的 GPU 上。因此,你可以将应用程序加速 100 倍、200 倍。你可以在哪里使用它?显然是工程、科学、物理、数据处理、计算机图形、图像生成,各种各样的东西。即使今天没有 AI,英伟达也会非常非常大。

  原因相当根本,那就是通用计算继续扩展的能力基本上已经走到了尽头。而唯一的方法……不是唯一的方法,但实现这一目标的方法是通过特定领域的加速。我们开始的领域之一是计算机图形,但还有许多其他领域。有各种各样的。粒子物理和流体、结构化数据处理,所有不同类型受益于 CUDA 的算法。

  我们的使命确实是向世界提供加速计算,并推进通用计算无法完成的应用类型,并将其能力扩展到有助于突破某些科学领域的水平。一些早期的应用是分子动力学、用于能源发现的地震处理、当然还有图像处理,所有这些通用计算效率低下的领域。

  如果没有 AI,我会非常难过。但是,由于我们在计算方面取得的进步,我们使深度学习民主化了。我们使任何地方、任何研究人员、任何科学家、任何学生都能够使用 PC 或 GeForce 扩展卡进行出色的科学研究成为可能。这个根本承诺没有改变,一点也没有。

  如果你看 GTC 大会,有整个开头部分。那里面没有 AI。那一整部分关于计算光刻、量子化学工作、数据处理工作,所有这些东西都与 AI 无关。它仍然非常重要。我知道 AI 非常有趣且令人兴奋,但有很多人正在做很多非常重要的非 AI 相关工作,而张量并不是你计算的唯一方式。我们想帮助所有人。

  Dwarkesh Patel

  Jensen,非常感谢。

  Jensen Huang

  不客气。我很享受。

  Dwarkesh Patel

  我也是。