NVIDIAはAIプロセッサ市場で約90%のシェアを誇るが、CPU市場への展開を加速させている。IntelやAMDのサーバー用CPU供給能力の限界とリードタイムの長期化は、AI時代におけるCPUの価値再認識を示唆している。生成AIやマルチモーダルモデルの普及により、AIコンピューティングはCPUへの依存度を高めており、NVIDIAはGPUと連携するフルスタック・ソリューションを構築している。同社は2023年にデータセンター向けCPUを投入し、CUDAエコシステムとNVLink技術により、CPUとGPUの深いシナジーを実現。Metaとの契約は、NVIDIA製CPUの商用化における大きな節目となる。

TradingKey - NVIDIA( NVDA)、市場予想を上回る決算で再びウォール街を驚かせた。同社の会計年度の始まりとなる1月終了四半期の売上高は681億ドルに達し、市場予想の660億ドルを大幅に上回る前年同期比73%増を記録した。そのうち、データセンター部門の売上高は前年同期比75%増加し、粗利益率は驚異的な75%に達した。これは、AIコンピューティング市場における同社の価格決定力が依然として揺るぎないものであることを示している。
世界のAIプロセッサ市場で約90%のシェアを握るGPUの圧倒的な覇者として、NVIDIAの野心は明らかにそれにとどまらない。同社はAIおよび消費者向けCPU市場への展開を加速させており、GPU分野での成功をCPUでも再現しようとしている。
2025年後半以降、世界のCPU市場への関心が高まっている。Intel( INTC)やAMD( AMD)のサーバー用CPUの供給能力は限界に達し、リードタイムは6カ月にまで延びており、需給の不均衡が生じ始めている。業界関係者の間では、これはAI時代におけるCPUの価値が再認識されている兆しであるとの見方が一般的だ。
これまで、AIコンピューティングにおいては、並列処理能力に優れたGPUが絶対的な優位性を誇り、CPUは基本的な汎用タスクを処理するのみであった。しかし、生成AIやマルチモーダルモデルの普及に伴い、AIコンピューティングは『学習中心』から『学習と推論の両立』へとシフトしている。特にAIエージェントの時代に突入する中で、タスクのスケーリングやツール呼び出しにおけるCPUへの依存度が大幅に高まっている。
大規模モデルの事前学習フェーズでは、CPUがデータの保存、シャッディング、インデックス作成を担い、GPUのコア演算をサポートする。マルチモーダルな推論シナリオでは、CPUが画像や動画のデコードを処理することで、GPUの演算負荷を軽減している。
今後AIがエッジデバイスや端末に浸透するにつれ、単一のチップですべてのシナリオの要件をカバーすることは不可能になる。GPUとCPUが連携するフルスタックのヘテロジニアス(異種混在型)ソリューションが標準となるだろう。
このトレンドを見越し、NVIDIAは早くも2023年に自社開発のデータセンター向けCPU製品を投入した。報道によると、NVIDIAのジェンスン・フアンCEOは決算説明会で、AI企業がモデル学習からデプロイ(展開)フェーズへ移行するのに伴い、NVIDIAは再びCPUに注力すると述べた。同氏は、自社製CPUには高い競争力があり、将来的にNVIDIAを世界有数のCPUメーカーに押し上げる可能性があると指摘した。
現在、NVIDIAはAI市場向けに複数のARMベースのプロセッサを投入しており、消費者向け市場向けの製品『N1X』もまもなくリリースされる予定だ。
NVIDIAがCPUに自信を持つ背景には、同社が深く根付かせたフルスタック・エコシステムの能力がある。AI推論の時代において、CPUの分岐ロジック処理の利点は増幅される。かつて市場には『NVIDIAのGPU + AMDのCPU』というハイブリッド構成が登場したが、NVIDIAは独自の高速相互接続技術『NVLink』を通じてCPUとGPUの深いシナジー(相乗効果)を実現し、単体CPUの利点をはるかに凌駕するシステムレベルのパフォーマンス向上を実現している。
さらに重要なのは、NVIDIAがCUDAエコシステムを所有していることだ。世界中のAI開発フレームワークやモデルの大部分がこれを基盤に構築されている。このエコシステムの『ロックイン効果』により、顧客が他のプラットフォームへ移行することは困難となっている。現在、NVIDIAのネットワーキング売上高はデータセンター部門の総売上高の約15%を占め、前年同期比162%の成長を遂げており、フルスタック・コンピューティング・システムの競争力をさらに盤石なものにしている。
Meta( META)とNVIDIAが先週締結した数年にわたる契約は、NVIDIA製CPUの商用化における大きな節目となる。Metaは数百万個のBlackwellおよびRubin GPUを購入するだけでなく、NVIDIAのGrace CPUをスタンドアロンのサーバー用チップとして採用する予定だ。これは同CPUモデルの初の大規模導入となり、CPU領域におけるNVIDIAの技術力の高さを証明するものだ。
多くの人がNVIDIAの成功を『AIの波に乗った』ためだと考えているが、実際には同社の布石は20年以上前から始まっていた。
1990年代、NVIDIAはGeForceシリーズでPCゲーム用ハードウェア市場での覇権を確立し、GPUの研究開発におけるコア技術を蓄積した。2006年に並列コンピューティング・アーキテクチャ『CUDA』を投入したことで、GPUは単なるゲームの描画ツールから汎用計算チップへと変貌を遂げ、AI時代の爆発的な普及の基礎を築いた。
現在、CPUセクターにおけるNVIDIAの展開も、この長期戦略の延長線上にある。GPUビジネスで蓄積した技術的・エコシステム的優位性を活用し、NVIDIAはGPUとCPUが協調するフルスタック・コンピューティング・システムを構築している。これは、今後10年間にわたって同社のリードを維持するための核心的な障壁となるだろう。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。