万字实录 | 黄仁勋把AI经济账算透了:没有计算,就赚不到钱

  出品 | 网易智能

  作者 | 小小

  编辑 | 王凤枝

  图片:黄仁勋在 CES 2026 演讲,来源:英伟达官网

  “没有计算,就生不成 token;没有 token,就赚不到钱。”

  在刚刚结束的英伟达 2026 财年第四季度财报电话会议上,公司创始人兼首席执行官黄仁勋用这样一句直白的论断,概括了当前 AI 行业的核心商业逻辑。

  数据显示,英伟达各项财务指标依然强劲,季度实现营收 681 亿美元,同比增长 73%,净利润大幅增长,毛利率维持在 75% 的高位。不过黄仁勋与首席财务官科莱特·克雷斯(Colette Kress)并未在历史财务数据上过多停留,而是将焦点全面转向了由“计算即收入”驱动的产业未来。

  财报会上,黄仁勋指出,业界已经迎来了智能体的拐点。以 Anthropic 和 OpenAI 为例:前者的收入在一年内增长了 10 倍,但依然受制于算力容量瓶颈;后者同样面临庞大的算力需求。在 Claude Code、Codex 等智能体工具开始为企业创造实际经济价值的当下,云服务商能上线多少算力,就意味着能实现多快的收入增长。

  支撑这一宏大愿景的,是英伟达长期构建的软硬件生态壁垒。会上透露,即便是六年前发布的 A100 芯片,如今在云端依然供不应求。这得益于英伟达 GPU 架构的全面兼容性。正是这种兼容性,使得英伟达敢于在软件工程上进行巨额投入,因为任何一项最新的软件优化,都能惠及全球庞大的存量设备,让老架构也能吃到新技术的红利。

  此外,网络业务已成为英伟达基础设施版图的关键一环。进入以太网交换市场仅两年,英伟达正迅速确立其全球领先地位。

  面对分析师对“75% 高毛利率能否持续”的疑问,黄仁勋的回应聚焦于技术迭代:支撑高毛利率的核心动力,是持续为客户带来跨代际的性能飞跃,创造远超系统成本的价值。

  在黄仁勋的推演中,继当前的智能体 AI 浪潮之后,下一波将是深入制造业和机器人领域的物理 AI。此外,黄仁勋还在会上展望了“太空计算”的图景。他坦言,尽管目前太空数据中心的经济效益欠佳,且面临无空气流动、无法使用液冷等严苛的物理散热挑战,但未来大有可为。

  图片:黄仁勋在 GTC 演讲,来源:英伟达官网

  以下为英伟达财报会议实录

  首先是黄仁勋开场演讲:

  本季度,我们显著深化并扩展了与领先前沿模型制造商的合作伙伴关系。我们最近共同庆祝了 OpenAI 推出 GPT-5.2 Codex,该模型的训练和推理均依托于 Grace Blackwell 和 NVL72 系统进行。GPT-5.2 Codex 能够处理涉及研究、工具使用和复杂执行的长时间运行任务。5.3 Codex 也已在英伟达内部广泛部署。我们的工程师非常喜欢它。我们正继续推进与 OpenAI 的合作协议,并相信距离最终达成已近在咫尺。对于能与 OpenAI 持续合作,我们感到无比振奋。这是一家划时代的公司,能够从其创立之初便与之携手,我们深感荣幸。

  Meta 超级智能实验室正在以闪电般的速度扩张。上周,我们宣布 Meta 正在部署数百万个 Blackwell 和 Rubin GPU、NVIDIA CPU 以及 Spectrum-X 以太网,用于训练和推理。

  本季度,我们还宣布与 Anthropic 建立合作伙伴关系,并向其投资 100 亿美元。Anthropic 将在 Grace Blackwell 和 Vera Rubin 上进行训练和推理。Anthropic 的 Claude Cowork 智能体平台具有革命性意义,为企业的 AI 应用打开了闸门。在 Claude Cowork 和 OpenClaw 之间,计算需求正在飞速增长。

  通过与 Anthropic、Meta、OpenAI 和 xAI 的合作,英伟达已全面覆盖所有云平台。同时,凭借我们从零开始构建全栈 AI 基础设施以及在云端提供全面支持的能力,我们占据着得天独厚的优势,能够在训练、推理以及 AI 工厂规模化扩展等各个阶段,与前沿模型构建者深度合作。

  最后,我们近期与 Groq 就其低延迟推理技术达成了非排他性许可协议,并欢迎一支顶尖的工程师团队加入英伟达。正如我们当年融合 Mellanox 一样,我们将依托 Groq 的创新来拓展英伟达的架构边界,将 AI 基础设施、性能和价值推向全新高度。

  分析师问答环节:

  美国银行证券分析师维韦克·阿里亚(Vivek Arya):感谢您接受我的提问。您刚才提到,目前对进入 2027 年的增长已具备清晰的能见度,而您的采购承诺显然也印证了这种信心。仁勋,我很好奇,当您审视您最大的云服务客户时,今年他们的云资本支出已接近 7000 亿美元,许多投资者担心明年很难继续维持这一增速,而且其中几家企业产生现金流的能力也正面临压力。我知道您对自己产品路线图和采购承诺等非常有信心,但您对客户是否有能力持续增长其资本支出,有多大信心?如果他们的资本支出不再增长,英伟达能否仍在现有的预算范围内找到增长路径?谢谢。

  黄仁勋:我对他们现金流的增长有信心,原因很简单:我们已经看到了智能体 AI 的拐点,以及智能体在全球各地企业中展现出的巨大实用性。正因如此,你看到了令人难以置信的计算需求。在这个 AI 新世界里,计算就是收入。没有计算,就生不成 token;没有 token,就赚不到钱。在这个 AI 新世界里,计算就等于收入。此时此刻,我确信,随着 Codex 和 Claude Code 投入生产使用,以及业界对 Claude Cowork 充满期待,还有大家对 OpenClaw 及其企业版本抱有极高热情,所有企业级 ISV(独立软件开发商)现在都在其工具平台之上开发智能体系统。

  现在,我确信我们不仅正处于拐点,更已经跨过了这道分水岭。我们正在生成有利可图的 token,这些 token 不仅能转化为客户的生产力,对云服务提供商来说也同样有利可图。其背后的简单逻辑与思考方式是:计算范式已经改变。过去我们是在计算机上运行软件,需要一定规模的计算机数量,姑且称之为每年 3000 至 4000 亿美元的资本支出,而现在这些资金已经全面投入到 AI 中。对于 AI 来说,为了生成 token,你需要计算能力,而这直接转化为增长,也直接转化为收入。

  摩根士丹利分析师乔·摩尔(Joe Moore):好的,谢谢,祝贺你们取得优异的业绩。您刚才谈到了你们对 Anthropic 以及可能对 OpenAI、CoreWeave 所做的一些战略投资,以及与英特尔、诺基亚、新思科技等伙伴的合作。很明显,你们正处于整个行业的中心。您能否谈谈这些投资发挥的作用,以及您如何看待利用资产负债表作为工具,来增强英伟达在生态系统中的地位并从中分享增长红利?

  黄仁勋:英伟达一切的核心是我们的生态系统。正是由于我们生态系统的丰富性,大家才如此喜爱我们的业务。世界上几乎每一家初创公司都在英伟达的平台上进行开发。我们存在于每一朵云和每一个本地数据中心之中。我们的足迹遍布全球的边缘和机器人系统。成千上万的 AI 原生公司建立在英伟达的基础架构之上。我们希望利用这一新计算时代、这一新计算平台转变伊始所带来的巨大机遇,让所有人都能使用英伟达的平台。一切都已经建立在 CUDA 之上,因此,我们拥有一个非常好的起点。

  在我们构建整个 AI 生态系统的过程中,无论是语言 AI、物理 AI,还是 AI 物理学、生物学、机器人技术或制造业,我们都希望将所有这些生态系统都建立在英伟达之上。这对我们来说是一个绝佳的机会,可以对涵盖整个技术栈的生态系统进行投资。我们的生态系统如今也比过去更加丰富。过去,我们主要提供基于 GPU 的计算平台,但现在我们是一家 AI 计算基础设施公司,我们在各个维度上都有计算平台。从计算到 AI 模型,再到网络和 DPU,所有这些之上都有对应的计算技术栈。

  正如我之前提到的,无论是在企业、制造业、工业、科学还是机器人领域,这些生态系统中的每一个都有不同的技术栈,我们希望确保持续投资于我们的生态系统。我们的投资导向非常明确,那就是战略性地专注于扩大和深化我们生态系统的覆盖范围。

  J.P.摩根分析师哈兰·苏尔(Harlan Sur):网络业务在您整体数据中心业务中的占比持续上升。整个 26 财年,您的网络收入每个季度都实现了同比加速增长,对吧?正如您提到的,第四季度同比增长达到了 3.6 倍。显然,这得益于你们在纵向扩展(Scale-up)和横向扩展(Scale-out)网络产品组合上的强大实力。我记得去年上半年,你们 Spectrum-X 以太网交换平台的年化运行率大约在 100 亿美元左右。看起来,去年下半年可能已经提升到 110 亿至 120 亿美元的水平。Jensen,从你们的订单储备来看,特别是随着 Spectrum-XGS 以及即将推出的 102T Spectrum-6 交换平台的面世,Spectrum 目前的发展势头如何?以及您对今年结束时的预期是什么?

  黄仁勋:如你所知,我们将自己视为一家人工智能基础设施公司,而人工智能计算基础设施包括 CPU 和 GPU。我们发明了 NVLink,将单个计算节点扩展成一个巨大的计算机架。我们发明了“机架级计算机”的概念。我们交付的不是计算节点,而是整机架的计算系统。这个基于 NVLink 交换机的纵向扩展系统,随后会使用 Spectrum-X 和 InfiniBand 进行横向扩展。这两种技术我们都支持。我们还使用 Spectrum-X 横向扩展技术跨数据中心进行扩展。我们将网络视为计算的自然延伸。我们以开放的姿态提供一切,以便客户可以根据不同的规模自由组合,或者以他们喜欢的任何方式将其集成到定制化的数据中心中。

  归根结底,这都是我们平台至关重要的组成部分。NVLink 的发明确实极大地推动了我们网络业务的发展。每个机架都配备了九个交换节点,每个节点有两个芯片,未来还会有更多。我们在每个机架内实现的交换量确实令人难以置信。我们现在也是全球最大的网络公司。如果单看以太网,我们大约在两年前进入以太网交换市场,我认为我们今天可能已经是全球最大的以太网网络公司了,而且很快就会彻底确立这一地位。Spectrum-X 以太网对我们来说是一个巨大的成功。你知道,我们对于客户希望如何构建网络始终持开放态度。

  有些人非常喜欢 InfiniBand 的低延迟和扩展能力,我们当然会继续支持。另有些人喜欢基于以太网跨数据中心集成他们的网络。我们创造了一种全新的以太网能力,在数据中心内通过人工智能处理方式拓展了以太网的边界,在这方面我们非常擅长。我们的 Spectrum-X 性能确实证明了这一点。当您建造一个价值 100 亿或 200 亿美元的人工智能工厂时,网络有效性和利用率上很容易产生 20% 的差异,而这些差异都会转化为实实在在的收益。

  英伟达的网络业务确实增长迅速,但我认为这仅仅是因为我们如此有效地构建了人工智能基础设施,而人工智能基础设施业务本身的增长也同样快得令人难以置信。

  Cantor Fitzgerald 分析师 CJ·缪斯(CJ Muse):我想,鉴于 CPX 被用于大上下文窗口,而 Groq 可能会增加一个专门针对解码的解决方案,我很好奇我们应该如何看待你们未来的路线图。我们是否应该考虑将定制化芯片(无论是按工作负载还是按客户定制)作为英伟达日益关注的焦点,特别是得益于你们向小芯片架构的转变?非常感谢。

  黄仁勋:每个人都应该尽可能推迟采用小芯片架构。原因在于,每次跨越小芯片边界,你都不得不跨越一个物理接口。每次跨越接口,都会增加延迟,并带来不必要的功耗。我们并不排斥小芯片,事实上我们已经在使用了,但我们只在绝对别无选择的情况下才使用。如果你看看 Grace Blackwell 架构和 Rubin 架构,我们使用了两个巨大的达到掩膜版尺寸极限的裸片,并将它们无缝拼接,这减少了跨架构通信的开销。小芯片带来的额外开销,正体现在竞争对手架构的低效上。

  如果你看看英伟达,人们常说这是我们的软件优势,但是,你知道,软件的边界在哪里,硬件架构的起点和终点又在哪里,这很难说清楚。我们的软件之所以有效,是因为我们的架构如此出色。毫无疑问,CUDA 架构比现有的任何计算架构都更有效、更高效,能提供更高的每浮点运算性能和每瓦性能,这归功于我们的架构设计方式。关于我们如何看待 Groq 和低延迟解码器,我有一些很棒的想法想在 GTC 上与大家分享。简而言之,由于 CUDA 的存在,我们的基础设施具有极强的通用性,我们将继续保持这一优势。

  你知道,我们所有的 GPU 在架构上都是兼容的,这意味着,当我今天致力于为 Blackwell 优化模型时,所有这些致力于优化软件栈和新模型的工作,也同样能使 Hopper 和 Ampere 受益。这就是为什么 A100 在我们将其部署到全球多年后,仍然焕发活力,并保持高性能的原因。架构兼容性使我们能够做到这一点。它使我们能够对软件工程和优化进行巨大投资,因为我们知道,我们在整个云端、本地、各处、跨越几代架构的 GPU 装机量都将受益。我们将继续这样做,这不仅使我们能够延长硬件的使用寿命,更使我们能够拥有创新力、灵活性和速度,从而转化为性能,以及对我们的客户来说非常重要的每美元性能和每瓦性能。

  关于 Groq,我们将在 GTC 上揭晓更多细节,但我们会做的是,将 Groq 作为一个加速器来扩展我们的架构,就像我们当年融合 Mellanox 来拓展英伟达的架构一样。

  伯恩斯坦分析师斯泰西·拉斯冈(Stacy Rasgon):科莱特,我想稍微深入探讨一下关于全年环比增长的表述。我的意思是,你们本季度数据中心业务环比增长了超过 100 亿美元,而指引似乎暗示,这新增的 100 亿美元环比增长中,绝大部分仍将来自数据中心业务。你怎么看待今年的情况,特别是随着 Rubin 在下半年开始量产爬坡?Blackwell 对环比增长来说是一个相当大的加速。当我们迎来 Rubin 时,是否也能期待类似的情况吗?我也希望你谈谈对游戏业务的预期。我理解这受制于内存供应等问题。你认为在 27 财年,游戏业务还能同比增长吗?还是说由于内存问题,它会面临更大压力?

  克雷斯:我先从未来的收入预期开始回答。再次强调,我们倾向于逐季度地看待收入情况。考虑到全年,我们绝对会继续销售和交付 Blackwell,与此同时,大家也将看到 Vera Rubin 进入市场。这是一个非常出色的架构,能够帮助客户快速部署,并且已经规划好了不同客户的许多不同订单。现在判断 Vera Rubin 的初期量产爬坡在下半年会有多大还为时过早,我们会逐步了解。关于强劲的需求和兴趣,这一点毫无疑问。

  我们预计几乎每个客户都会购买 Vera Rubin。问题在于,我们的产品多快能推向市场,以及客户多快能在数据中心内部署起来?这是对您第一部分问题的回答。第二部分是关于我们的游戏业务。尽管我们很想提供更多的供应,但我们确实认为,未来几个季度的供应将非常紧张。如果到年底情况有所改善,那么就有机会实现同比增长的情况。现在下定论还为时过早,我们会尽快向你们同步最新进展。

  花旗银行分析师阿蒂夫·马利克(Atif Malik):感谢您回答我的问题。仁勋,我很好奇您能否谈谈 CUDA 的重要性,毕竟现在 AI 领域的更多投资资金正流向推理工作负载。

  黄仁勋:没有 CUDA,我们就不知道如何处理推理。整个软件栈,从我们几年前推出的 TensorRT-LLM 开始,至今它仍然是世界上性能最高的推理技术栈。为了针对 NVLink 进行优化,我们需要探索并发明新的并行化算法,这些算法运行在 CUDA 之上,以分配工作负载和推理任务,从而利用 NVLink 交换机的聚合带宽。NVLink 交换机使我们能够实现高达 50 倍的代际每瓦性能提升。这是一个令人难以置信的飞跃,而且顺理成章。NVLink 交换机是一项伟大的发明,但要做到这一点很难。

  交换技术的创造、交换机的解耦、系统机架的构建,所有这一切,我们都是在全行业的注视下公开完成的,大家都知道这对我们来说有多难。但结果是不可思议的:每瓦性能提升了 50 倍,每美元性能提升了 35 倍,推理方面的飞跃令人难以置信。重要的是要认识到,现在对于我们的客户来说,推理就等于收入。因为智能体产生了如此多的 token,而且效果如此显著。当智能体在编码时,它会生成成千上万、数十万、甚至数百万的 token,因为它们往往需要运行几分钟甚至几小时。这些系统,这些智能体系统,会衍生出不同的智能体像一个团队一样协同工作。

  生成的 token 数量确实呈指数级增长。我们需要以更高的速度进行推理,而当以更高的速度进行推理时,每一个 token 都能直接变现,从而直接转化为收入。推理性能就等于我们客户的收入。对于数据中心来说,推理阶段每瓦生成的 token 数将直接转化为 CSP(云服务提供商)的收入。原因在于,所有人都受制于电力瓶颈。我的意思是,无论你有多少数据中心,每个数据中心,比如 100 兆瓦或 1 吉瓦,都有电力限制。具有最佳每瓦性能的架构至关重要,因为在每瓦能生成的性能 token 中,每个 token 都能变现。

  每瓦 token 数转化为每瓦美元数,这在一吉瓦的数据中心中会直接转化为收入。你可以看到,现在每个 CSP 都理解这一点,每个超大规模企业都理解这一点:资本支出会转化为计算能力。采用正确架构的计算能最大化收入,计算等于收入。今天不投资容量,不投资计算,就不可能有收入增长,我想每个人都明白这一点。计算等于收入。选择正确的架构极其重要。现在这不仅仅是战略问题,它更直接影响他们的盈利。选择正确的架构,即每瓦性能最佳的架构,就是一切。

  图片:黄仁勋在 CES 2026 演讲,来源:英伟达官网

  Melius Research 分析师本·雷茨(Ben Reitzes):首先,我要赞扬你们将股票薪酬纳入非 GAAP 指标。我认为这是一个很好的举措,但这并非我的问题。我的问题围绕着毛利率以及其长期维持在 75% 左右的可持续性。我们是否应该从供应能见度持续到 2027 年这一点解读为,毛利率可以维持到那时?仁勋,那之后呢?你们能否透露一些在内存消耗方面的创新,让我们对长期维持这一毛利率水平更有信心?谢谢。

  黄仁勋:支撑我们高毛利率的核心动力,其实是为客户带来跨代际的性能飞跃。这是最重要的事情。如果我们能够提供代际的每瓦性能飞跃,并远超摩尔定律所能达到的水平;如果我们能够提供每美元性能的飞跃,使其远超我们系统的成本和价格,那么我们就能够持续维持我们的毛利率。这是一个简单却最重要的概念。我们之所以发展如此之快,是因为,第一,由于我们已经经历的拐点,世界对 token 的需求已经完全呈指数级增长。我想我们都看到了这一点,以至于我们即便是六年前推出的云端 GPU 也已完全被消耗殆尽,且价格还在上涨。

  我们知道现代软件开发方式所需的计算量正在指数级增长。我们的战略是每年交付一个完整的人工智能基础设施。今年,我们推出了六款新芯片。Rubin 及下一代也将推出许多新芯片。每一代,我们都致力于提供数倍于前代的每瓦性能和每美元性能。这种迭代速度,以及我们进行极致协同设计的能力,使我们能够为客户交付这种价值和收益。就我们传递的价值而言,这是最至关重要的事情。

  New Street Research 分析师安东尼·什凯班(Antoine Chkaiban):我想问一下关于太空数据中心的事情,你们的一些客户正在考虑这个。您认为这有多大的可行性,时间线大概是怎样的?目前的经济效益如何,您认为未来会如何发展?谢谢。

  黄仁勋:目前的经济效益很差,但随着时间的推移会改善。如您所知,太空的工作方式与地球上的工作方式截然不同。那里有丰富的能源,但太阳能电池板体积庞大,不过太空中有充足的空间。散热方面,太空很冷,然而没有空气流动,所以唯一的散热方式是通过传导,而你需要制造的散热器相当大。液冷显然是行不通的,因为它很重,而且会结冰。我们在地球上使用的方法与在太空中使用的方法略有不同。

  有许多不同的计算问题确实需要在太空中完成。英伟达已经是世界上第一个将 GPU 送入太空的公司,Hopper 已经在太空中了。GPU 在太空中最好的用例之一是成像。能够利用光学和人工智能,以极高的分辨率成像,并且能够进行不同角度的重新投影计算,能够提升分辨率、降噪,能够看得更清,能够以非常大、非常高的分辨率、极其庞大的规模、非常非常快地成像。要知道,将 PB 级的成像数据传回地球再进行处理是非常困难的。

  更简单的做法是直接在太空中完成。您可以先忽略所有收集和处理的常规数据,直到发现有价值的目标(再行处理)。太空中的人工智能将会有非常出色、非常有趣的应用。

  Evercore ISI 分析师马克·利帕西斯(Mark Lipacis):我想追问一下您在发言稿中关于收入多元化的评论。科莱特,我相信您提到超大规模企业占收入的 50% 以上,但增长是由你们其他数据中心客户引领的。我想确认一下,只是想确认我理解得对不对。这是否意味着你们的非超大规模客户增长更快?如果是这样,您能帮助我们理解,非超大规模企业在做什么不同的事情?他们做的事情与超大规模企业不同,还是说只是规模不同但做着同样的事情?您预计这一趋势会持续吗?您预计您的客户群是否会发展到非超大规模企业成为您业务中更重要的一部分?谢谢。

  克雷斯:让我来试着回答这个问题。当您看我们的前五大客户时,正如我们所阐述的,他们是我们的 CSP(云服务提供商)、我们的超大规模企业,他们目前约占我们总收入的 50%。与此同时,我们拥有一个庞大且多元的客户群体,由各种各样不同类型的公司组成,我们正在与他们合作,包括我们的 AI 模型制造商、我们的企业、超级计算以及主权国家客户等。这涵盖了许多不同的细分领域。您是对的,这也是一个增长非常快的领域。我们在我们平台上的所有不同云提供商中都有强大的地位。现在我们还有极其多样化的客户,遍布世界各地。

  看到这种多样性并能服务于所有这些细分市场,这确实会带来好处。让仁勋看看是否有需要补充一点。

  黄仁勋:这是我们生态系统的优势之一,一切都建立在 CUDA 之上。我们是唯一一个存在于每一朵云中、可通过每家计算机制造商获得、可在边缘使用的加速计算平台,现在我们正在深耕电信行业。显然,未来的无线电都将由 AI 驱动,未来的无线网络也将成为一个计算平台。这是一个定论,但必须有人去发明技术使之成为可能。我们创建了一个名为 Aerial 的平台来实现这一目标。我们几乎出现在每一个机器人、每一辆自动驾驶汽车中。

  我们的能力,CUDA 的能力,一方面拥有专用处理器(如我们 GPU 内部的张量核心)的性能优势。另一方面,CUDA 的灵活性使我们能够解决语言问题、计算机视觉问题、机器人问题、生物学问题、物理学问题,以及几乎所有类型的人工智能和所有类型的计算算法。我们客户群的多样性是我们最大的优势之一。

  第二点,当然,即使我们的处理器是可编程的,如果没有我们自己的生态系统,如果不去培育它,正如我们今天所探讨的那样,投资于未来的生态系统并持续增强它,我们也很难突破“为他人生态系统赢得设计订单”的增长天花板。由于我们创建的平台,我们可以非常自然地发展和扩展我们的生态系统。最后,非常重要的一点是我们与 OpenAI 和 Anthropic、xAI、Meta 的合作关系,当然,还有世界上几乎每一个开源社区。Hugging Face 上有 150 万个 AI 模型,所有这些模型都运行在英伟达 CUDA 上。如果把整个开源社区看作一个整体,它可能代表着世界上第二大模型生态。OpenAI 是最大的。第二大,可能就是所有开源模型的集合。

  英伟达运行所有这些模型的能力使我们的平台具有极强的通用性、超级易用性,并且投资起来非常安全。这创造了客户的多样性、平台的多样性,并在每个国家都触手可及,因为,如您所知,我们支持全世界的生态系统。

  富国银行分析师亚伦·雷克斯(Aaron Rakers):好的。感谢您接受我的提问。我想,在坚持平台和极致协同设计理念的同时,本季度的一些新闻显然表明,英伟达有能力或正在推动将 Vera CPU 作为独立解决方案推向市场。我很好奇 Vera 在我们未来的架构演进中扮演着多重要的角色?这是否更多地由推理工作负载的多样性驱动?我只是好奇您如何看待它在英伟达业务发展中的定位,特别是在独立 CPU 方面。谢谢。

  黄仁勋:我将在 GTC 上与大家分享更多信息。但从宏观架构来看,我们对 CPU 的架构决策与世界上其他 CPU 有着根本的不同。这是唯一支持 LPDDR5 的数据中心 CPU。它旨在专注于非常高的数据处理能力。原因在于,我们感兴趣的大多数计算问题都是数据驱动的,人工智能就是其中之一。在这种带宽比例下,其单线程性能简直堪称卓越。我们做出这些架构决策是因为在人工智能的各个不同阶段,从数据处理开始,在进行训练之前,你必须先进行数据处理。你需要进行数据处理、预训练,而在后训练阶段,人工智能正在学习如何使用工具。在工具的使用方面,许多工具运行在纯 CPU 环境中,或者运行在带有 GPU 加速的 CPU 环境中。Vera 被设计成为一款在后训练阶段极佳的 CPU。在整个人工智能流程中,某些用例需要使用大量 CPU。你知道,我们和喜欢 GPU 一样喜欢 CPU,当你像我一样将算法加速到极限时,阿姆达尔定律就会表明,你需要非常非常快的单线程 CPU。这就是为什么我们将 Grace 构建得非常擅长单线程性能,而 Vera 比那还要好得多。

  瑞银分析师蒂姆·阿库里(Tim Arcuri):科莱特,我想知道您是否可以谈谈资本部署。我知道你们大幅提高了采购承诺,但听起来你们似乎已经度过了产能瓶颈期,今年你们可能会创造大约 1000 亿美元的现金流。而且,不管业绩有多好,股价似乎并没有涨多少。我想您会觉得目前的估值是一个相当不错的价格,可以在这里进行大规模的股票回购。我想知道您是否可以谈谈这个,比如,问题是,为什么不设定一个更激进的目标,就在这里进行大规模的回购?谢谢。

  克雷斯:我们非常仔细地评估我们的资本回报计划,我们确实相信,我们能做的最重要的事情之一是全力支持我们面前庞大的生态系统。这个生态系统无处不在,涵盖了我们的供应商,以及我们需要做的工作,以确保我们能够获得所需的供应,并在产能方面帮助他们,就像我们帮助那些将在我们平台上开发 AI 解决方案的早期开发者一样。我们将继续使这成为我们业务流程和战略投资中非常重要的一部分。当然,我们仍在回购我们的股票,也仍在发放股息。我们将在年内继续寻找合适且独特的机会来进行这些不同的资产配置。

  高盛分析师吉姆·施奈德(Jim Schneider):仁勋,您之前概述过,到 2030 年数据中心资本支出可能达到 3 至 4 万亿美元,这暗示着增长率可能会加速,而您对下一季度的指引至少也印证了这一点。问题是,您认为哪些关键应用领域最有可能推动这种加速?是物理 AI、智能体 AI 还是其他领域?您仍然看好那 3 至 4 万亿美元的市场规模吗?谢谢。

  黄仁勋:让我们退后一步,从几个不同的角度来推理。首先,从第一性原理出发,未来软件运用 AI 的方式是由 token 驱动的。我想每个人都在谈论 token 经济学,谈论数据中心生成 token,推理本质上就是生成 token,而我们正是生成 token 的引擎。你知道,我们刚刚谈论了 token,以及英伟达的 NVLink 交换机如何使我们能够以比上一代提升 50 倍的能效比来生成 token。token 生成几乎是未来所有与软件和计算相关事务的核心。

  反观我们过去的计算方式,过去软件所需的计算量仅仅是未来所需的一小部分。AI 已经到来。AI 不会倒退。AI 只会不断进化。思考一下,你会发现:世界每年在经典计算上的投资约为 3000 至 4000 亿美元,现在 AI 来了,所需的计算量是过去计算方式的 1000 倍。计算需求呈指数级飙升。

  如果我们仍然相信其中蕴含价值,我们稍后会谈到这一点,那么世界将持续投资来生产这些 token。世界所需的 token 生成能力对应的投资规模远不止 7000 亿美元。我相当确信我们将继续生成 token。从现在开始,我们将继续投资于计算能力。根本上,因为每家公司都依赖软件,而每个软件都将依赖 AI,所以每家公司都将生产 token,这就是我将它们称为 AI 工厂的原因。无论你是云数据中心公司,你都会有 AI 工厂为你的收入生成 token。

  如果你是一家企业软件公司,你将为你工具之上的智能体系统生成 token。如果你是一家机器人工厂或自动驾驶汽车公司,第一个迹象是,你会拥有巨大的超级计算机(基本上就是 AI 工厂)用于生成 token,这些 token 进入你的汽车,成为它的 AI。你还必须在汽车内部放置计算机以持续生成 token。我们现在相当确信这是计算的未来。为什么如此肯定这是计算的未来?原因在于,我们过去开发软件的方式是预录制的。一切都是预先设定好的。我们预编译软件,预写内容,预录制视频。

  现在一切都是实时生成的。当内容被实时生成时,它能够将人的上下文、情况、查询和意图全部纳入考量,从而生成我们称之为 AI、智能体 AI 的新软件的输出。这所需的计算量远远大于预录制模式。你知道,就像计算机比 DVD 播放器拥有多得多的计算能力一样,AI 需要比我们过去开发软件的方式多得多的计算能力。现在,关于计算可持续性的问题,首先在计算机科学层面,这就是未来计算的方式。

  从工业层面来看,因为归根结底,我们所有的公司都由软件驱动,云公司也由软件驱动。如果新软件需要生成 token,并且 token 可以变现,那么他们的数据中心建设直接推动其收入增长是顺理成章的。计算推动收入。我想他们都明白这一点。我想人们也开始越来越多地理解这一点。最后,你知道,AI 为世界带来的好处最终必须转化为收入。我们正亲眼看到,就在我们说话的当下,智能体 AI 已经迎来了一个拐点,这实际上就发生在过去的两三个月里。

  当然,在行业内部,我们感知到这个趋势已经有一段时间了,大概有 6 个月左右。世界现在已经意识到了智能体 AI 的转折点。这些智能体非常聪明,它们正在解决实际问题。编码现在显然得到了智能体系统的支持,我们英伟达这里所有的程序员都在大量使用智能体系统,要么是 Claude Code,要么是 OpenAI Codex,而且经常两者都用,还有 Cursor,通常三者结合使用,具体取决于用例。他们将智能体作为协同设计伙伴、工程伙伴来帮助他们解决问题。你可以看到这些 AI 公司的收入在飞速增长。

  你知道,以 Anthropic 为例,我认为他们的收入一年内增长了 10 倍,而且他们严重受限于算力容量,因为需求实在令人难以置信。token 需求令人难以置信,token 生成率呈指数级增长。当然,OpenAI 也是如此,他们的需求同样令人难以置信。他们能上线运行的计算能力越多,他们的收入增长就越快。这印证了我之前的评论:在这个新世界里,推理就是收入,计算等于收入。在很多方面,这就是为什么我们说这是一场新的工业革命。新的工厂、新的基础设施正在建设中,这种新的计算方式不会倒退。

  只要我们相信生产 token 将是未来的计算方式,我深信这一点,而且我认为行业大体上也对此深信不疑,那么我们将从现在开始建设这种能力,并以此为基础继续扩展。我们目前看到的是智能体 AI 的浪潮,其后的下一个浪潮是物理 AI,我们将 AI 和这些智能体系统应用到物理应用(比如制造业、机器人技术)中。那是未来的巨大机遇。