NvidiaはGTC 2026において、2027年末までのAI計算需要を1兆ドルと予測し、BlackwellおよびRubinアーキテクチャの受注見通しを倍増させた。同社は、汎用性とコスト優位性を強調し、AIインフラ・ファクトリー・オペレーターとしての地位を確立。Vera Rubinプラットフォームはトレーニングと推論効率を向上させ、Groq 3 LPUラックは高速推論を可能にする。NemoClawはエージェント展開を簡素化し、DLSS 5はリアルタイム・ニューラル・レンダリングでゲームグラフィックスを革新する。これらの発表は、AI市場の成長懸念を払拭し、Nvidia株価を押し上げた。

TradingKey - 現地時間3月16日、Nvidia( NVDA )の年次開発者会議「GTC 2026」が、サンノゼのSAPセンターで開幕した。3万人以上の開発者が会場に詰めかけ、Nvidiaの創業者兼CEOであるジェンスン・ファン氏による2時間半に及ぶ基調講演は、間違いなくこのAI業界イベントの焦点となった。同氏はNvidiaの立ち位置を単なる「チップ企業」から「AIインフラおよびファクトリー・オペレーター」へと完全にアップグレードさせただけでなく、「2025年から2027年までの累積収益は1兆ドルを超える」という驚くべき予測を打ち出し、世界のAI計算能力市場における前例のない成長の青写真を描いた。
会議において、Nvidiaのジェンスン・ファンCEOは市場に対し、予想を上回るシグナルを送った。NvidiaのBlackwellおよびRubin AIチップ・アーキテクチャにより、2027年末までに少なくとも1兆ドルの累積受注需要が見込まれるという。この予測は昨年同時期に発表された5,000億ドルという目標を直接倍増させるものであり、瞬時に市場の熱狂に火をつけた。
ジェンスン・ファン氏は次のように述べた。「昨年の今頃、私たちは2026年までのBlackwellおよびRubinアーキテクチャを対象とした5,000億ドルの確度の高い需要を見込んでいた。しかし、AI計算需要の爆発的な増加は予想をはるかに上回り、2027年までの市場規模は少なくとも1兆ドルに達するだろう。実際の需要はさらに高い可能性もあり、我々は供給不足に備えている。」
これは単なる業績目標ではなく、AI計算能力需要の指数関数的な爆発を反映したものだ。
過去2年間、大規模モデルが「認識・生成」段階から「推論・実行」段階へと進化するにつれ、計算能力の消費量は指数関数的に増大した。
ジェンスン・ファン氏は、Nvidiaがこれほど強気な予測を提示できた核心的な理由は、同社システムの汎用性とコスト優位性にあると指摘した。Nvidiaのプラットフォームはほぼすべての分野のAIモデルに適応可能であり、顧客の投資を1円たりとも無駄にせず長期的なリターンをもたらす。これが、同社が世界で「最も低コストなAIインフラ」となった主な理由でもある。
Nvidiaの収益の60%は世界トップ5のハイパースケール・クラウドサービス・プロバイダーによるもので、残りの40%はソブリンクラウド、エンタープライズ・アプリケーション、産業用AI、ロボティクス、エッジコンピューティングなど多様なシナリオをカバーしている。この「上位集中+ロングテール拡散」というパターンは、AI計算能力がインターネット大手の独占的な需要から、産業全体のインフラ投資へと変貌を遂げつつあることを示している。
アナリストらは、Nvidiaの1兆ドルという目標は、自社製品への自信の表れであるだけでなく、世界のAIインフラ市場の拡大スピードを反映していると考えている。
大規模モデルのパラメータ数が増加し続け、推論需要が急増し、企業向けAIアプリケーションの実装が加速する中、AI計算能力はクラウドコンピューティングと並ぶ長期的な設備投資の方向性となりつつある。この期待は、「AI計算サイクルのピークアウト」に対する市場の懸念も払拭している。現在の世界的なAI計算への投資はまだ初期段階にあり、テック企業によるAIサーバー、GPU、および関連システムへの投資は、今後数年間、高強度の成長を維持するだろう。
ジェンスン・ファン氏はスピーチの中で次のように強調した。「AI計算の需要曲線は急勾配になり始めたばかりだ。我々は10年に一度の技術変革の出発点に立っている。」Nvidiaの1兆ドルの予測は、この差し迫った変化を告げる明確なシグナルである。
今回の会議で最も重要な発表は、Nvidiaにとってこれまでで最も複雑なAI計算システムである「Vera Rubin」であった。単一のチップを中心とした以前のリリースとは異なり、Vera Rubinは7つのチップと5種類のラックで構成される完全なスーパーコンピューター・プラットフォームである。
システム全体の計算コアとして、Vera Rubin NVL72ラックはAIのトレーニングと推論効率において二重の飛躍を実現した。72基のRubin GPUと36基のVera CPUを統合し、次世代のNVLink 6高速インターコネクト・ネットワークを通じて統合計算アーキテクチャを構築し、GPUとCPU間のデータ転送遅延をマイクロ秒単位にまで短縮した。
1兆パラメータ規模のMixture-of-Experts(MoE)モデルをトレーニングする場合、NVL72は前世代のBlackwellプラットフォームと比較してわずか4分の1のGPU数で済み、トークンあたりの生成コストは10分の1にまで直接削減される。つまり、企業は同規模のAIモデルをトレーニングするための計算能力への投資を90%節約でき、大規模モデルの商業展開が大幅に加速することになる。
さらに、今回のリリースのもう一つの目玉は、エージェンティックAI専用に設計された世界初のCPUクラスター、Vera CPUラックである。汎用計算に焦点を当てた従来のCPUとは異なり、Vera CPUはエージェントのマルチタスク並列処理と長いコンテキストの処理能力に深く最適化されている。単一のラックに256基のプロセッサを統合でき、計算効率は従来のラックレベルのCPUの2倍に達し、数万のエージェントがオンラインで同時に動作することをサポートする。
現在、アリババ、バイトダンス、Cloudflareなどのクラウドサービス・プロバイダーが、エージェント開発プラットフォームを構築するためにVera CPUラックの導入を発表しており、AI計算能力が一般的なモデルトレーニングから、より専門的なエージェント・シナリオへと浸透し始めたことを示している。
Vera Rubin NVL72が「大規模計算」の効率問題を解決するなら、Groq 3 LPXラックは「超高速推論」における技術的なギャップを埋めるものである。これは、Nvidiaが昨年Groqを買収して以来、初めて発売した製品でもある。Groq 3 LPUプロセッサは500MBという大容量のオンチップSRAMを搭載しており、外部ビデオメモリなしで非常に複雑な推論計算を完了でき、エンドツーエンドの遅延は従来のGPUよりも一桁低い。
ハードウェアの可能性を最大限に引き出すため、Nvidiaは大規模モデルの動作の異なる段階に基づいて計算能力を動的に割り当てることができるインテリジェント・スケジューリング・システム「Dynamo」を開発した。膨大なビデオメモリを必要とする「プリフィル」段階はRubin GPUが担当し、遅延に敏感な「トークン・デコーディング」段階はGroq LPUに割り当てられる。
この「非対称な協調」アーキテクチャ設計により、同じ電力レベルでの1兆パラメータモデルの推論スループットが35倍に向上し、AI推論の経済的実行可能性の限界を直接新たな高みへと押し上げた。
同時に、Nvidiaは世界初の量産型Co-Packaged Optics(CPO)スイッチであるSpectrum Xを正式に発表し、「銅か光(ファイバー)か」というロードマップを巡る業界の議論に完全に決着をつけた。従来の着脱可能な光モジュールと比較して、Spectrum Xは光モジュールをスイッチチップと直接パッケージ化しており、光電力効率を5倍に向上させ、シングルポートの帯域幅は2Tb/sに達し、ネットワークの信頼性を10倍に向上させた。
ジェンスン・ファン氏はスピーチの中で、「将来、より多くの銅ケーブル容量が必要になると同時に、より多くの光チップとCPO容量も必要になる」と明言した。これは、Nvidiaが銅ケーブルと光インターコネクト技術の両方を同時に推進し、さまざまな規模のAIデータセンターに柔軟な接続ソリューションを提供することを意味している。
ハードウェアがAI工場の「プラント」であるなら、エージェントは「ワーカー」である。ジェンスン・ファン氏はオープンソース・プロジェクト「OpenClaw」を「人類史上最も普及したオープンソース・プロジェクト」と呼び、その採用速度はLinuxをはるかに凌ぐと指摘し、エージェント時代の「オペレーティングシステム」と定義した。
エージェントの大規模展開におけるセキュリティ、プライバシー、管理の課題を解決するため、Nvidiaはフルスタックのソフトウェア・プラットフォーム「NemoClaw」を同時に発表した。開発者から冗談めかして「ワンクリック・シュリンプ・ファーミング」と呼ばれるこのツールは、単一のコマンドでAIエージェントのデプロイ、スケジューリング、監視を完了できる。
NemoClawは、大規模言語モデルNemotronとランタイム環境OpenShellを統合している。これにより、エージェントが自然言語の指示を直接理解できるだけでなく、セキュリティ・サンドボックス、プライバシー保護、ポリシー・エンジンなどの主要機能を補完する。開発者はビジュアル・インターフェースを通じてエージェントの動作境界を定義し、コンプライアンスの範囲内で動作することを保証できるほか、「データはローカルに留めつつ計算はスケジュール可能」というプライバシー・コンピューティング・モードも実現できる。
ジェンスン・ファン氏はスピーチの中で、将来すべてのSaaS企業がAaaS(Agent-as-a-Service)企業へと変貌を遂げると予測した。シリコンバレーの採用市場はすでに反応しており、多くのテック企業がエージェント開発分野のトップ人材を争奪するため、「基本給+トークン枠」という新しい報酬体系を採用し始めている。
さらに、Nvidiaのジェンスン・ファンCEOは会議でDLSS 5テクノロジーを正式にリリースし、これを「2018年のリアルタイム・レイトレーシング以来、コンピュータグラフィックスにおける最も重要な突破口」と呼び、グラフィックスにおける「GPTの瞬間」とさえ定義した。
会場で公開された『バイオハザード:レクイエム(Resident Evil: Requiem)』の同期デモでは、DLSS 5を有効にした後、キャラクターの髪の自然な光沢の変化、革製品のしわの繊細な影、視点に合わせて動く濡れた路面のダイナミックな反射の細部が、以前はオフラインの映画レンダリングでしか達成できなかった品質で表現されていた。これは、リアルタイム・ゲームグラフィックスが「ルールによる近似的なリアリズム」から「映画のような没入感」へと飛躍したことを意味する。
AIアップスケーリングやフレーム生成技術に重点を置いていた以前のバージョンのDLSSとは異なり、DLSS 5は初めて「リアルタイム・ニューラル・レンダリング」コア・アーキテクチャを導入し、エンドツーエンドでトレーニングされたAIモデルを通じて、照明や素材の相互作用を伴う完全なピクセルを直接生成する。
ジェンスン・ファン氏はスピーチの中で、このテクノロジーの革新性は、プロフェッショナルなクリエイティブ分野における生成AIの核心的な矛盾を解決した点にあると強調した。視覚的なリアリズムを大幅に向上させつつ、アーティストがコンテンツに対して絶対的なコントロールを保持できるようにしたのだ。開発者は、強度の調整、カラーグレーディング、ローカルマスクなどの微調整パラメータを通じて、AIのレンダリング効果を精密に制御でき、AIを「クリエイティブの代替」ではなく、アートチームにとっての「スマート・アシスタント」にすることができる。
現在、DLSS 5はBethesda、カプコン(CAPCOM)、網易(NetEase)、テンセント(Tencent)、Ubisoftなど、世界のトップゲーム開発者からの支持を得ている。『アサシン クリード シャドウズ』、『スターフィールド』、『NARAKA: BLADEPOINT』、『Where Winds Meet』など30以上のタイトルが、今秋に最初の対応を完了する予定だ。
ジェンスン・ファン氏はまた、DLSS 5の技術的価値は決してゲーム分野に限定されるものではないと指摘した。それが示す「構造化データ+生成AI」の融合パラダイムは、将来、企業向けコンピューティング、建築の可視化、バーチャル・プロダクションなどの幅広いシナリオに拡大するだろう。
同時に、DLSS 5は既存のすべてのRTXシリーズ・プラットフォームと互換性があり、Nvidia Streamlineフレームワークを介してシームレスに統合される。これにより、開発者の対応コストが大幅に削減され、より多くのプレイヤーがAI技術による画質の飛躍を体験できるようになる。
ゴールドマン・サックス( GS )はGTC 2026会議の直後に調査レポートを公開し、ジェンスン・ファン氏の発言が投資家の2つの核心的な懸念を正確に突いており、AI業界に関する市場の成長不安を効果的に緩和したと指摘した。
ゴールドマン・サックスは、Nvidiaが2027年のデータセンター事業の受注見通しを、昨年発表された2026年の目標値5,000億ドルの2倍にあたる1兆ドルに引き上げたことに注目した。ウォール街の予想をはるかに上回るこの長期的な収益コミットメントは、「2026年にAI設備投資がピークを迎える」という懸念を直接払拭し、業界の成長見通しに対する明確な裏付けを提供した。
第二に、買収したGroqの技術に基づいて発売されたLPX推論ラックは、競争の激しい推論市場においてNvidiaにとって極めて重要な一歩となる。
ゴールドマン・サックスの分析によると、この製品とVera Rubinプラットフォームとの相乗効果により、ワットあたりのスループットが35倍に向上し、1兆パラメータモデルにおいて10倍以上の収益化余地が生まれるという。データセンターにおける電力ボトルの問題を正確に解決するものであり、今年第3四半期に出荷が開始される予定だ。
加えて、Nvidiaのネットワークおよびエコシステムレベルでの展開もゴールドマン・サックスから高く評価された。Spectrum-X CPOスイッチの量産、576基のGPUをサポートする垂直スケーリングCPOラック、そしてエージェンティックAI向けのNemoClawプラットフォームは、いずれも企業向けAIの実装を推進する主要な進展とみなされた。
ゴールドマン・サックスは、ハイパースケール・クラウドサービス・プロバイダーの設備投資計画がNvidiaの主導的地位をさらに固めると考え、同社株の「買い」評価と目標株価250ドルを維持した。
GTC会議の好材料を受け、Nvidia'sの株価は月曜日の取引時間中に4.8%以上上昇し、最終的に1.63%高で取引を終えた。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。