Nvidiaは、2026年度第4四半期に売上高650億〜658億ドル、粗利益率75.0%を見込み、Blackwellアーキテクチャによる成長が続く。しかし、株価は同期間の競合AMDやSOX指数に比べて低迷している。GoogleのTPUは内部ワークロードでNvidia依存を脱しつつあるが、外部クラウドではNvidiaGPUが依然優位だ。AI推論へのシフトによりCPUの重要性が増し、AMDはCPUでNvidiaに競合するが、NvidiaはNVLinkによる高速ネットワーキングとCPU-GPU統合エコシステムで競争優位を維持する。

今週は、2026年度第4四半期決算の発表を控えたNvidiaに全注目が集まっている。
指標 | 2026年度第4四半期予想 | 前年同期比(YoY)成長率 | 背景・補足 |
売上高 | 650億ドル〜658億ドル | 約67% | 2025年度第4四半期の393億ドルから増加。Blackwellの量産がピークに達したことを反映。 |
調整後1株利益(EPS) | 1.46ドル〜1.53ドル | 約71% | 前年同期の0.89ドルから大幅な伸び。 |
粗利益率(グロスマージン) | 約75.0% | +140 bps | 第3四半期の73.6%という「落ち込み」からの回復を目指す。 |
データセンター部門売上高 | 約599億ドル | 約66% | 全社売上高の約90%を占める。 |
Nvidiaの2026年度第4四半期の財務見通しは、同社がいまだ成長のピーク局面にあることを物語っている。売上高は650億ドルから658億ドルの範囲に収まると推定され、これは2025年度第4四半期の393億ドルから前年同期比で67%の増加となる。この急伸は主に、量産が本格化している「Blackwell」アーキテクチャによるものだ。データセンター部門は引き続き同社の圧倒的な牽引役であり、売上高全体の約90%にあたる約599億ドルを占める見込みだ。
収益性も安定の兆しを見せている。調整後1株利益(EPS)は1.46ドルから1.53ドルの間に上昇すると予想され、昨年の0.89ドルから大きく跳躍する。投資家にとっておそらく最も重要なのは、粗利益率が75.0%に回復する見通しであることだ。第3四半期には、複雑なBlackwellシリーズの初期歩留まりの低下と45億ドルの在庫評価損により73.6%まで一時的に低下したが、そこからの回復となる。しかし、新たな課題も浮上している。メモリ価格の25〜30%の上昇が粗利益率を下押しする可能性があり、今後数四半期で2〜3ポイントの逆風となる恐れがある。
決算説明会では、投資家は製品ラインナップに関する最新情報にも細心の注意を払うだろう。
世代 | アーキテクチャ | 年度 | GPUモデル | CPUモデル | 主な進化点 |
次世代 | Feynman | 2028年 | F100 | Vera Next | 次なる波である「物理AI」をターゲット。 |
現行/次期 | Rubin | 2026年 | R100 / Rubin Ultra | Vera(88コア) | HBM4メモリ、3nmプロセス、1.8 TB/s NVLink。 |
最新 | Blackwell | 2024年〜2025年 | B100、B200, B300 | Grace (72コア) | 初の「デュアルダイ」GPU、トランジスタ数は2080億個。 |
レガシー/成熟 | Hopper | 2022-23年 | H100, H200 | Grace | LLM(大規模言語モデル)向けの「Transformer Engine」を導入。 |

出所:TradingView
こうした「驚異的な数字」にもかかわらず、NVIDIAの株価は過去6カ月間で10%の上昇にとどまっている。比較すると、同期間に主要な競合相手であるAMDは23%上昇し、広範なSOX半導体指数は48%急騰した。Amazon、Alphabet、Meta、Microsoftといった「ハイパースケーラー」が、いずれも2026年に向けた設備投資(Capex)ガイダンスを大幅に引き上げたことを考えると、このアンダーパフォームは特に不可解である。
論理的には、これらテック大手による設備投資の増加は、NVIDIAのGPU収益の増加に直結するはずである。しかし、Amazonが設備投資を56%増の2000億ドルに引き上げると発表した際、NVIDIAの株価は横ばいで推移した。Alphabet(98%増)やMeta(74%増)による大幅なガイダンス引き上げに対しても、同様の反応が見られた。
企業 | 2026年設備投資ガイダンス | 前年比増加率 | NVDA株価の反応 |
Amazon | 2000億ドル | +56% | 横ばい / -1.2% |
Alphabet | 1800億ドル | +98% | 横ばい / +0.5% |
Meta | 1250億ドル | +74% | 横ばい / -0.8% |
Microsoft | 1400億ドル | +59% | 横ばい / -2.1% |
NVIDIAの支配力に対する最大の脅威は、Googleのテンソル・プロセッシング・ユニット(TPU)からもたらされている。Googleは、最も重要な自社内部のワークロードにおいてNVIDIAを回避できることを証明した。現在、Gemini 3および4は、ほぼすべて(95-100%)がGoogle内部のTPUでトレーニングされており、NVIDIAのGPUによる同ワークロードの処理は実質0-5%にすぎない。検索やYouTubeを支えるなどの内部推論タスクについては、依然としてTPUが処理量の約85-90%を担っている。
この動きは投資家の見方を変えるきっかけとなっている。AIモデルのリーダーがNVIDIA離れを進めているのであれば、他社もそれに続くのだろうか。しかし、Googleを2つの異なる側面から見ると、実態はより複雑である。「内部向けGoogle」は自給自足を実現しているが、「外部向けGoogle Cloud」は顧客満足度を高めるために依然としてNVIDIAに大きく依存している。外部クライアントは、引き続きワークロードの約60-65%でNVIDIAのGPUを選んでいる。これは主に、GoogleのTPUが特定のアーキテクチャ上のニーズに合わない場合や、CUDAのソフトウェアエコシステムに囲い込まれていることが要因である。
ワークロードの種類 | Google TPUの処理割合(%) | NVIDIA GPUの処理割合(%) |
内部AIトレーニング(Gemini 3/4) | 約95% - 100% | 約0% - 5% |
内部AI推論(検索/YouTube) | 約85% - 90% | 約10% - 15% |
外部向けGoogle Cloud(顧客によるレンタル利用) | 約35% - 40% | 約60% - 65% |
AI業界が成熟するにつれ、焦点はモデルの学習から、学習済みモデルを実行してユーザーのクエリに回答する「推論」へと移りつつある。この新たな局面において、中央演算処理装置(CPU)が再び重要性を増している。GPUの圧倒的な並列処理能力を必要とする学習とは異なり、推論はしばしば「分岐ロジック」――CPUの方が処理に適した一連の迅速な「if/then(条件分岐)」判断――を伴うためである。
この変化はAMDにとって追い風となっている。同社のCPUは、単体ベースで見ればNVIDIAの「Grace」や「Vera」よりも強力かつ費用対効果が高いと見なされることが多い。現在の市場では、多くの外部クラウド顧客が、NVIDIAのGPUとAMDのCPUを組み合わせる「ハイブリッド」なアプローチを採用している。AMDが提供するこの「アラカルト」型のビジネスモデルは、GPUとCPUを緊密に統合されたパッケージとして販売しようとするNVIDIAの「セットメニュー」型のアプローチとは対照的である。
NVIDIAの目標は、自社のCPU(Veraモデルなど)がサードパーティ製であるAMDのVenice CPUよりも自社のエコシステム内で優れた性能を発揮することを証明し、このハイブリッド傾向を打破することにある。AMDが「生のロジック性能」やIPC(クロックあたりの命令実行数)で勝る一方で、NVIDIAのVera CPUはARMベースのアーキテクチャを通じて極めて高い電力効率を実現しており、AI特化型ソフトウェアに対して高度に最適化されている。
| 推奨GPU | 推奨CPU |
Google内部利用 | Google TPU | Google Axion |
Google外部顧客 | NVIDIA GPU | AMD CPU |
NVIDIAの経済的な堀(モート)の真の強みは、見落とされがちなセグメントであるネットワーキングにあります。現在、ネットワーキングはデータセンター部門の総売上高の約15%、約82億ドルを占めており、前年比162%という驚異的な成長を遂げています。これは、競合他社が模倣に苦心しているCPUとGPUの間の架け橋を構築しているため、NVIDIAの「秘密兵器」となっています。
例えば、クライアントがAMDのCPUとNVIDIAのGPUを組み合わせて使用する場合、接続速度はPCIe 6.0の128 GB/sに制限されます。しかし、すべてをNVIDIA製品で構成(Vera CPUとRubin GPU)した場合、独自のネットワーキング技術であるNVLink 5.0によって、標準的な接続の14倍以上となる1,800 GB/sの速度が可能になります。
指標 | AMD EPYC "Venice" | NVIDIA "Vera" CPU |
純粋なCPUロジック性能 | 勝者(高いIPC / x86) | 良好(ARM Neoverse) |
CPU-GPU間の通信速度 | 128 GB/s (PCIe 6.0) | 1,800 GB/s (NVLink) |
電力効率 | 高い | 極めて高い (ARM) |
ソフトウェアの選択肢 | オープン(あらゆるプログラムを実行可能) | クローズド(AIに最適化) |
このパフォーマンスの差こそが、NVIDIAがAMDのCPUからの乗り換えを顧客に促すための主要な原動力となっています。システム全体の速度がボトルネックになる場合、AMD製CPUの「純粋なロジック」における優位性は無意味なものとなります。Metaが大量のNVIDIA製CPUを購入した最近の動向などは、ネットワーキングの統合を通じてCPU事業を拡大するという同社の長期戦略が実を結び始めていることを示唆しています。
NVIDIAはもはや単なるチップメーカーではなく、フルシステムプロバイダーである。「GPU戦争」は数年前に決着したが、「AI CPU戦争」は始まったばかりだ。現在の市場の懐疑的な見方は、業界が推論やカスタムシリコンへとシフトする中で、NVIDIAが高価格を維持したり、支配的地位を保ち続けたりすることができなくなるのではないかという懸念を反映している。しかし、GPU、CPU、高速ネットワーキングを、クローズドで最適化されたエコシステムに統合することで、NVIDIAは「アラカルト」の個別部品では太刀打ちできない競争優位性(堀)を築いている。次回の決算説明会では、ジェンスン・ファン最高経営責任者(CEO)が、競争激化の中でも75%の利益率を維持する鍵として、このフルスタックの支配力を強調する可能性が高い。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。