英伟达第三财季营收狂飙62%!黄仁勋:这不是泡沫
2025-11-19 22:26:11 · chineseheadlinenews.com · 来源: ZAKER

美国当地时间周三,芯片巨头英伟达发布了2026财年第三财季(对应自然年2025年第三季度)财报。
财报显示,英伟达第三财季营收为570.06亿美元,同比增长62%,环比增长22%,超过LSEG所调查分析师平均预期的549.2亿美元;净利润为319.1亿美元,同比增长65%,环比增长21%;每股摊薄收益为1.3美元,同比增长67%,环比增长20%,超过LSEG所调查分析师平均预期的1.25美元。
得益于英伟达第三财季业绩及第四财季指引均超分析师预期,美股盘后英伟达股价涨超5%。
财报发布后,英伟达首席执行官黄仁勋、首席财务官科莱特·克雷斯等高管出席财报分析师电话会,解读财报并回答了分析师提问。
以下为英伟达第三财季电话会精华版:
在电话会上,克雷斯首先向投资者描绘了一幅AI计算革命的宏伟图景。她指出,第三财季的卓越表现源于三大技术范式转型的同步爆发:通用计算向加速计算的演进、生成式AI对传统机器学习的取代,以及智能体应用开启的全新赛道。但她强调,我们仍处于这些转型的早期阶段。
克雷斯用一系列令人振奋的数字印证了这一趋势:英伟达目前已锁定5000亿美元的Blackwell和Rubin架构订单,全球云服务商的GPU产能持续满载。更引人注目的是,主要云厂商将2026年资本支出预期上调至约6000亿美元,较年初增长逾2000亿美元,其中近半数将投向加速计算基础设施。
三大扩展定律(预训练、后训练和推理)依然成立,它们都在积极扩展计算规模以提升智能水平。在克雷斯看来,行业正在形成“智能提升-应用拓展-收益增长”的飞轮效应。她举例说明,OpenAI周活跃用户已达8亿,Anthropic年化收入在十个月内从10亿跃升至70亿美元,这种爆发式增长正在各个垂直领域重现。从Cursor赋能软件开发,到Abridge变革医疗记录,AI应用公司纷纷实现用户量与营收的跨越式增长。
谈及具体业务进展,克雷斯透露上季度全球AI工厂项目需求相当于500万颗GPU,其中包括xAI的吉瓦级数据中心、礼来公司的药物研发工厂等标志性项目。英伟达正在与OpenAI商讨一项战略合作伙伴关系,重点帮助他们建设和部署至少10吉瓦的AI数据中心。
Blackwell架构中GB300已成为主力产品,超过GB200贡献该系列约三分之二营收。Rubin平台正按计划在2026年扩大规模,而下一代Vera Rubin平台将再次实现性能的阶跃式提升。
这位CFO特别强调两个战略机遇:一方面,与OpenAI等领导者的深度合作将持续巩固在超大规模数据中心的优势;另一方面,物理AI正成为数万亿美元的新蓝海,制造业巨头和机器人创新企业都在采用英伟达的全栈式计算架构推进数字化转型。
黄仁勋则回应了市场对AI泡沫的担忧,他指出英伟达正在见证的并非泡沫,而是三个历史性技术转型的共振效应。这位CEO强调,英伟达区别于其他加速器厂商的根本在于其全栈能力——从预训练、后训练到推理的每个AI阶段,再到科学计算和图形处理,CUDA生态系统经过二十年深耕已建立起难以逾越的壁垒。
他精辟地剖析了三大并行发生的平台迁移:
首先,在摩尔定律放缓的背景下,通用计算向加速计算的转型已成为必然选择,每年数千亿美元的传统计算支出正在寻找更高效的归宿;
其次,生成式AI正在彻底重构互联网基础服务,他以Meta的Gem广告推荐系统为例,说明即使是5%的广告转化率提升也能带来巨额收入增长;
最后,更具颠覆性的智能体AI浪潮已经涌现,从编程助手到自动驾驶,新一代AI应用正在重塑各行各业的工作方式。作为世界上增长最快的公司,OpenAI、Anthropic、xAI、谷歌、Cursor、Lovable、Replit、Cognition AI、Open Evidence、Abridge、特斯拉,都在开发智能体AI。
在黄仁勋看来,这三重转型分别对应着不同的战略意义:加速计算是后摩尔定律时代的必需品,生成式AI是现有业务的增强剂,而智能体AI则将催生全新的商业模式。
他特别指出,英伟达之所以能在这三个维度同时获得成功,关键在于其统一架构的战略选择,相同的技术平台既能支持云端训练,也能驱动边缘推理,这种一致性为开发者提供了无与伦比的便利性。
以下为问答环节:
问:关于Blackwell和Rubin架构在2025至2026年5000亿美元的营收指引,目前是否仍维持此前提出的“已完成1500亿美元发货,剩余3500亿美元待执行”的判断?这一预期是否会随业务进展而上调?
克雷斯:我们确认该营收指引保持不变,且执行进度符合预期。在完成第三财季500亿美元的发货后,我们仍需要数个季度来实现剩余目标。需要强调的是,这一预测数字是动态增长的。我们持续看到超出预期的市场需求,例如今天与沙特达成的协议,将在三年内新增40万至60万颗GPU的订单,而Anthropic等客户的订单增量也未包含在原计划中。因此,我们确信最终实现的总营收将超越目前5000亿美元的预测。
问:随着Grok3、Gemini 3等新一代模型即将释放更大潜力,你们认为未来12-18个月内供应链能否满足需求?还是供不应求的状态会持续更久?
黄仁勋:我们的供应链规划具备前瞻性和韧性。英伟达与台积电、存储伙伴及系统制造商构成的生态已为持续增长做好充分准备。但更关键的是,需求本身正在经历结构性扩张,这远不止于单一应用场景的爆发。
当前我们同时面临三大技术浪潮的叠加:一是算力基础架构的根本性转变,从通用计算全面迈向加速计算;二是生成式AI正系统性重构互联网核心服务,如搜索、广告推荐等关键业务;三是智能体AI的兴起,推动AI从工具向协作伙伴进化。
这些变革并非孤立存在。无论是传统数据处理任务、生成式AI应用,还是新兴的智能体服务,都在我们的平台上并行增长。例如编程助手工具正在重塑软件开发效率,其影响力已从技术团队延伸至营销、供应链等业务部门。这种跨行业的渗透速度是前所未有的。
更值得关注的是技术飞轮正在加速:模型能力的每一次突破(如Gemini 3展现的跃升)都会催生更广泛的应用场景,进而推动更强烈的算力需求。在这个动态循环中,英伟达的全栈优势让我们能够同时支持不同阶段、不同场景的AI需求。
问:关于吉瓦级数据中心的单瓦价值,在5000亿美元营收预期中,英伟达的每吉瓦价值贡献是多少?我们听到的估值从250亿到400亿美元不等。此外,面对2030年3-4万亿美元的数据中心市场,多少投资需要供应商融资?多少能由客户自有资金覆盖?
黄仁勋:我们的每代架构都在提升单瓦价值密度。从Ampere到Hopper约20-25亿美元/吉瓦,Blackwell架构已突破30亿美元,而即将到来的Rubin平台将进一步刷新这个数字。这背后的本质是,在固定的能源预算下,唯有通过架构创新才能释放最大价值。1吉瓦的电力必须转化为尽可能高的计算产出,这正是我们全栈协同设计的核心目标。
关于市场资金的来源,需要从三个层面理解:
首先,超大规模云服务商的资本支出具有坚实的商业基础支撑。随着摩尔定律的放缓,传统计算架构已难以满足效率和成本要求。这些云厂商转向英伟达GPU架构,不仅是技术升级,更是商业模式的必然选择。这既能显著提升其通用计算的效率,又能通过生成式AI技术重塑核心业务(如内容推荐、广告系统等),直接创造营收增长。这部分投资完全能够由其健康的现金流支撑。
其次,智能体AI代表着全新的增长维度。这不仅仅是现有业务的延伸,更是创造全新应用场景和商业模式的关键。从自动驾驶到数字孪生工厂,从AI制药到智能仓储,这些新兴领域正在吸引独立的资本投入,形成自我维持的发展循环。
更重要的是,我们需要突破“仅关注美国云厂商”的局限视角。全球各个国家都在推进主权AI建设,各行业也在启动数字化转型,从制造业到生物科技,从物流到金融服务,每个领域都在构建自己的智能化能力。这些多元化的需求来源,构成了一个远比传统云服务市场包为广阔的投资图景。
因此,AI基础设施的投资故事不是单一维度的,而是一个由技术驱动、多层次、全球性的资本演进过程。
问:关于未来几年可能产生的约5000亿美元自由现金流,请问英伟达有何规划?资金将如何在股票回购与生态系统投资之间分配?
黄仁勋:我们的资金配置策略始终服务于公司长期发展目标。首先,保持强劲的资产负债表对维持供应链韧性至关重要。作为行业领导者,我们必须确保供应链伙伴能够信赖我们的采购承诺和产能规划,这需要雄厚的资金实力作为后盾。
在资本回报方面,我们将继续执行股票回购计划,同时将战略性投资视为构建生态系统的关键举措。这些投资绝非简单的财务行为,而是深化技术合作、拓展CUDA生态系统的重要途径。
以OpenAI为例,我们自2016年交付首台AI超算以来就建立了深度合作关系。通过投资,我们不仅获得财务回报,更实现了技术栈的深度融合,如今OpenAI全线产品都基于英伟达架构运行。这种模式在Anthropic案例中同样得到验证,我们正协助其将Claude模型迁移至英伟达平台。
值得强调的是,英伟达平台已成为承载所有主流AI模型的统一架构。从OpenAI、Anthropic到xAI,从谷歌Gemini到各类科研模型,我们的技术栈展现出无与伦比的兼容性。通过战略性投资,我们既巩固了技术生态,又获得了投资下一代颠覆性企业的机会。
问:你曾提到约40%的GPU出货用于AI推理。展望明年,这个比例将如何变化?同时,能否谈谈即将推出的Rubin CPX产品及其市场定位?
黄仁勋:关于推理占比的具体预测存在难度,但这恰恰反映了行业的健康态势。我们乐见推理需求持续扩大,因为这意味着AI正被更频繁、更广泛地应用于实际场景。当前三大技术趋势正在共同推动推理需求:预训练模型持续进化、后训练技术显著提升模型逻辑能力,而思维链等推理技术更使得AI需要"先思考再回答",大幅增加了计算密度。
在推理计算领域,我们的Grace Blackwell架构已建立起显著优势。基准测试显示,GB300凭借NVLink 72拓扑结构,在复杂推理任务上相比其他方案实现了10-15倍的性能提升。这种技术代差确保了我们在推理市场的领导地位将延续多年。
关于Rubin CPX,这款产品专门针对长上下文工作负载优化。当AI需要深入分析大量资料,无论是数百页文档、长视频还是复杂3D模型时,CPX的架构设计能确保极高的能效和性价比。它将成为处理科研分析、高级内容生成等复杂任务的首选平台。
推理市场的扩张速度远超预期,而这正是英伟达全栈技术优势的集中体现。从硬件架构到软件优化,我们正在为这个即将爆发的市场做好充分准备。
问:在客户纷纷转向自建电力模式的背景下,你认为制约英伟达发展的最关键瓶颈是什么?是能源供应、融资支持,还是内存或晶圆厂产能?
黄仁勋:这些确实都是需要面对的挑战。当企业以我们这样的速度和规模发展时,每个环节都会面临压力。英伟达不仅是在参与一个产业,更是在开创一个全新的领域——AI工厂。这标志着计算范式正在发生根本性转变:从传统的信息检索,转向基于生成式AI的实时内容创造。
在供应链管理方面,我们拥有显著优势。与台积电等伙伴长达三十三年的合作,让我们在上游供应链建立了可靠的协作体系。同时,我们也在积极拓展下游生态,与电力、土地资源及金融机构建立战略合作。虽然每个环节都充满挑战,但这些都是可以通过系统规划和紧密协作来解决的问题。
我认为最核心的竞争优势在于架构效能。英伟达平台的能效比和总体拥有成本(TCO)在业内保持领先,这意味着在相同的能源投入下,客户能够获得更高的产出回报。这个优势正在获得市场验证。越来越多的企业在评估多种方案后,最终选择投入我们的技术生态。
我们看到的不是一个单一瓶颈,而是一个正在自我强化的增长循环:技术优势带来客户认可,规模扩大进一步巩固供应链优势。这个正向循环正在加速,而且比以往任何时候都更加明显。
问:随着Anthropic等重要合作的达成,以及客户基础的不断扩大,你如何看待AI专用芯片(ASIC)在行业中的角色?这是否意味着GPU架构正迎来新的转折点?
黄仁勋:这个问题触及了AI基础设施发展的核心。首先需要明确的是,现代AI计算已经远不止于单个芯片的竞争,而是整体系统架构的较量。在Ampere和Hopper时代,一个GPU就定义了加速系统;而如今,我们需要构建包含三种不同类型交换机的完整机柜系统,支持从纵向扩展到横向扩展的全场景需求。
当前AI模型的复杂度和多样性呈现爆炸式增长——从混合专家模型到扩散模型,从自回归模型到遵循物理定律的科学计算模型,这对计算架构提出了前所未有的要求。在这个背景下,英伟达的竞争优势体现在五个关键维度:
第一,全栈能力。从通用计算向加速计算的转型,到生成式AI的普及,再到智能体AI的兴起,我们的CUDA生态系统能够支持每个技术转型阶段,客户只需投资单一架构就能满足所有需求。
第二,全阶段卓越。无论是计算密集的预训练、算法创新的后训练,还是极具挑战性的推理任务,我们的平台都展现出卓越性能。特别是推理环节,随着思维链等复杂任务的出现,其技术门槛被大幅提升。
第三,无与伦比的兼容性。我们是目前唯一能够运行所有主流AI模型的平台,从前沿的大语言模型到专业的科学计算模型,从生物学模型到机器人模型,这种普适性为开发者提供了极大的便利。
第四,全域覆盖。从超大规模云平台到企业本地部署,从边缘设备到机器人系统,我们的架构实现了真正意义上的全场景覆盖。
第五,也是最关键的一点,生态系统的承载能力。对于任何基础设施投资者而言,平台的用户基数和应用多样性至关重要。英伟达庞大的开发者社区和多元化的应用场景,确保了投资回报的可靠性和持续性。
这正是通用GPU架构与专用ASIC的本质区别。我们提供的是完整的解决方案,而不仅仅是单个组件。随着AI应用场景的不断扩展,这种全栈优势正在变得更加明显。