Nvidia 2026财年第四季度财报营收预计同比增长67%,数据中心业务贡献90%,调整后EPS预计增71%,毛利率有望反弹至75%,但内存价格上涨构成下行压力。尽管云巨头大幅上调资本支出,Nvidia股价表现不及预期。谷歌TPU在内部训练和推理中显示优势,但外部云仍依赖Nvidia。AI推理阶段CPU重要性提升,AMD在CPU领域具备优势,但Nvidia通过NVLink等高速网络技术整合GPU和CPU,构建全系统供应能力,以维持其市场主导地位和高利润率。

本周市场焦点全在Nvidia身上,该公司即将发布其2026财年第四季度财报。
指标 | 2026财年第四季度预测值 | 同比增长 | 背景信息 |
营收 | 650亿美元 – 658亿美元 | 约67% | 高于2025财年第四季度的393亿美元。反映了Blackwell架构的峰值产能爬坡。 |
调整后每股收益 (EPS) | 1.46美元 – 1.53美元 | 约71% | 较去年的0.89美元大幅增长。 |
毛利率 | 约75.0% | +140个基点 | 力求从第三季度的73.6%“下滑”中反弹。 |
数据中心营收 | 约599亿美元 | 约66% | 约占公司总营收的90%。 |
NVIDIA 2026财年第四季度的财务预测显示该公司仍处于高速增长期。营收预计在650亿至658亿美元之间,较2025财年第四季度的393亿美元同比增长67%。这一激增主要由“Blackwell”架构驱动,该架构目前已达到产能爬坡的峰值。数据中心业务依然是公司无可争议的增长引擎,贡献了约599亿美元,占总营收的90%。
盈利能力也显示出稳定迹象。调整后每股收益(EPS)预计将跳升至1.46美元至1.53美元之间,较去年的0.89美元大幅跃升。对于投资者而言,或许最重要的一点是毛利率有望恢复至75.0%。此前,第三季度毛利率曾暂时下滑至73.6%,这归因于复杂的Blackwell系列初始良率较低以及45亿美元的库存核销。然而,新的挑战也随之而来:内存价格上涨25-30%可能会对毛利率造成下行压力,在未来几个季度可能产生2到3个百分点的阻力。
在财报电话会议上,投资者还将密切关注有关产品线的任何更新。
代次 | 架构 | 年份 | GPU型号 | CPU型号 | 关键进展 |
即将推出 | Feynman | 2028 | F100 | Vera Next | 针对下一波“具身智能”(Physical AI)。 |
当前/未来 | Rubin | 2026 | R100 / Rubin Ultra | Vera(88核) | HBM4内存、3nm工艺、1.8 TB/s NVLink。 |
最新 | Blackwell | 2024-25 | B100,B200, B300 | Grace (72核) | 首款“双芯片”GPU;集成2080亿个晶体管。 |
传统 / 成熟 | Hopper | 2022-23 | H100, H200 | Grace | 针对大语言模型 (LLM) 引入了“Transformer引擎”。 |

数据来源:TradingView
尽管有这些“令人印象深刻的数据”,NVIDIA 的股价在过去六个月中仅上涨了 10%。相比之下,其主要竞争对手 AMD 上涨了 23%,而同期的 SOX 半导体指数则飙升了 48%。这种表现不佳尤其令人费解,因为“超大规模云计算巨头”——Amazon、Alphabet、Meta 和 Microsoft——均大幅上调了 2026 年的资本支出(Capex)指引。
从逻辑上讲,这些科技巨头增加资本支出应当等同于 NVIDIA GPU 收入的增长。然而,当 Amazon 宣布将资本支出增加 56% 至 2000 亿美元时,NVIDIA 的股价却持平。在 Alphabet (+98%) 和 Meta (+74%) 大幅上调指引后,市场也出现了类似的反应。
公司 | 2026 年资本支出指引 | 同比增幅 | NVDA 股价反应 |
Amazon | 2000 亿美元 | +56% | 持平 / -1.2% |
Alphabet | 1800 亿美元 | +98% | 持平 / +0.5% |
Meta | 1250 亿美元 | +74% | 持平 / -0.8% |
Microsoft | 1400 亿美元 | +59% | 持平 / -2.1% |
对英伟达(NVIDIA)主导地位构成的最显著威胁来自谷歌(Google)的张量处理单元(TPU)。谷歌已成功证明,其在处理最关键的内部工作负载时可以绕过英伟达。目前,Gemini 3 和 4 几乎完全(95-100%)在谷歌内部 TPU 上进行训练,而英伟达 GPU 实际上仅处理该特定工作负载的 0-5%。对于搜索和 YouTube 等内部推理任务,TPU 仍处理约 85-90% 的业务量。
这种转变引发了投资者的叙事转变:如果 AI 模型领域的领导者正趋于脱离英伟达,其他人会效仿吗?然而,将谷歌视为两个独立实体时,现实情况更为复杂。虽然“谷歌内部”实现了自给自足,但“外部谷歌云”仍严重依赖英伟达来满足其客户需求。外部客户在约 60-65% 的工作负载中继续首选英伟达 GPU,很大程度上是因为谷歌 TPU 可能不符合其特定的架构需求,或者是因为他们被锁定在 CUDA 软件生态系统中。
工作负载类型 | 谷歌 TPU 处理比例 | 英伟达 GPU 处理比例 |
内部 AI 训练 (Gemini 3/4) | ~95% - 100% | ~0% - 5% |
内部 AI 推理 (搜索/YouTube) | ~85% - 90% | ~10% - 15% |
外部谷歌云 (客户租赁) | ~35% - 40% | ~60% - 65% |
随着人工智能产业趋于成熟,重心正在从模型训练转向“推理”——即运行训练好的模型来回答用户查询。在这一新阶段,中央处理器(CPU)正重新获得重视。与需要图形处理器(GPU)原始并行计算能力的训练不同,推理通常涉及“分支”逻辑,即一系列快速的“如果/那么”决策,而CPU在处理这些决策方面更具优势。
这一转变对AMD有利,与NVIDIA的“Grace”或“Vera”产品相比,AMD的CPU在独立运作时通常被认为性能更强且更具成本效益。在当前市场上,许多外部云客户采用“混合”方案:将NVIDIA GPU与AMD CPU搭配使用。AMD提供的这种“点餐式”商业模式与NVIDIA的“套餐”模式形成鲜明对比,后者试图将GPU和CPU作为高度集成的整套方案进行销售。
NVIDIA的目标是通过证明其自研CPU(如Vera型号)在其生态系统内的表现优于第三方AMD Venice CPU,从而打破这种混合趋势。虽然AMD在“原始逻辑”和IPC(每时钟周期指令数)方面表现更佳,但NVIDIA的Vera CPU通过其基于ARM的架构提供了极高的能效,并针对人工智能专用软件进行了高度优化。
| 首选GPU | 首选CPU |
Google内部使用 | Google TPU | Google Axion |
Google外部客户 | Nvidia GPU | AMD CPU |
NVIDIA护城河的真正实力在于一个常被忽视的细分领域:网络。网络业务目前约占数据中心总收入的15%,即约82亿美元,同比增长达惊人的162%。这是NVIDIA的“秘密武器”,因为它在CPU和GPU之间架起了竞争对手难以复制的桥梁。
例如,当客户将AMD CPU与NVIDIA GPU搭配使用时,会受限于PCIe 6.0的连接速度,其上限为128 GB/s。然而,当使用全NVIDIA技术栈(Vera CPU和Rubin GPU)时,专有的NVLink 5.0网络设备可实现1,800 GB/s的速度——比标准连接快14倍以上。
指标 | AMD EPYC "Venice" | NVIDIA "Vera" CPU |
原生CPU逻辑 | 胜出者(更高的IPC / x86) | 良好(ARM Neoverse) |
CPU至GPU速度 | 128 GB/s (PCIe 6.0) | 1,800 GB/s (NVLink) |
能效 | 高 | 极高(ARM) |
软件选择 | 开放(可运行任何程序) | 封闭(针对AI优化) |
这种性能差异是NVIDIA用来劝说客户放弃AMD CPU的主要催化剂。如果整个系统的速度成为瓶颈,AMD CPU的“原生逻辑”优势就变得无关紧要。最近的动向,如Meta大量采购NVIDIA CPU,表明这种通过网络集成来扩展CPU业务的长期战略已开始生效。
NVIDIA不再仅仅是一家芯片制造商,而是一家全系统供应商。虽然“GPU之战”在几年前就已尘埃落定,但“AI CPU之战”才刚刚拉开帷幕。市场目前的怀疑情绪反映了这样一种担忧:随着行业向推理和定制芯片转型,NVIDIA将无法继续掌握定价权或维持其主导地位。然而,通过将GPU、CPU和高速网络整合到一个封闭且优化的生态系统中,NVIDIA正在构建一道竞争对手难以通过“拼凑式”组件逾越的护城河。在即将举行的财报电话会议上,首席执行官黄仁勋(Jensen Huang)很可能会强调,这种全栈主导地位是其在竞争日益激烈的情况下维持75%利润率的关键。
本内容经由 AI 翻译并经人工审阅,仅供参考与一般资讯用途,不构成投资建议。