エージェンティックAIの熱狂がCPU需要を大幅に押し上げている、しかしモルガン・スタンレーは冷や水を浴びせる:トレンドを追ってインテル、AMDを買うな。
エージェンティックAIの台頭により、従来のGPU中心のAI通説を覆し、CPUへの需要が指数関数的に拡大している。エージェンティックAIは複雑なタスクを自律的に処理する能力を持ち、そのワークフローはCPUのマルチスレッド・スケジューリング能力に依存するため、CPUの並列処理能力、メモリ帯域幅、スケジューリング効率がシステムの応答速度を左右する。研究によると、RAGやWeb検索などのエージェントタスクでCPU時間が処理時間の80%以上を占め、電力消費もCPUが半分以上を担う。このため、CPUはエージェンティックAI時代のパフォーマンス・ボトルネックとなり、CPU需要を牽引している。データセンターではGPUとCPUの比率が2:1に向上し、分散アーキテクチャの採用が進んでいる。モルガン・スタンレーはAIエージェントが2030年までにCPU市場に325億~600億ドルの増分成長をもたらすと予測する一方、インテルやAMDへの直接投資には慎重な姿勢を示し、GPUやメモリ企業への投資を推奨している。

TradingKey — 年初来、エージェンティックAIが急速に台頭するなか、CPUチップの市場需要が指数関数的に拡大しており、AIから多大な恩恵を受けるのはGPUのみであるというこれまでの通説を覆しつつある。現在、市場における主要なエージェンティックAIには、Anthropicの『Claude Cowork』や『OpenClaw』などが含まれる。
エージェンティックAIとは何か?
ユーザーの入力に基づいてテキスト回答を生成するだけの従来の長大規模言語モデルとは異なり、エージェンティックAI(Agentic AI)の中核的な特徴は、複雑なマルチステップのタスクを自律的に完了できる能力にある。
エージェンティックAIは、自律的な意思決定、タスク計画、および複雑なタスクの実行が可能な人工知能システムであり、継続的な人間の介入なしにあらかじめ設定された目標を達成できると報じられている。
そのワークフローは、大規模なタスクを小規模なタスクに分解し、実行のために様々なツールを呼び出すものであり、プロセス全体がトップダウンの順序に従うため、GPUマトリックスのように数千のタスクを同時に処理することはできない。
これは、エージェンティックAIの運用効率が、GPUが得意とする並列計算能力ではなく、ほぼ完全にCPUのマルチスレッド・スケジューリング能力に依存していることを示している。
NVIDIA( NVDA)のジェンスン・フアン最高経営責任者(CEO)は、今年3月のGTC 2026において、「CPUはもはや単にモデルをサポートするものではなく、モデルを駆動する存在である」という極めて的確な指摘を行った。
エージェンティックAIはいかにしてCPU需要を押し上げているのか
エージェンティックAI時代の到来により、CPUの立ち位置は計算能力サプライチェーンにおける補助的な役割から、エージェントシステムの中心的な制御ハブへと移行した。
エージェント時代において、CPUの並列処理能力、メモリ帯域幅、およびスケジューリング効率は、システムの応答速度と処理能力を直接左右する。エージェントの並列実行数がCPUの許容限界を超えると、リクエストのキューイングやツールの呼び出し失敗といった問題が発生し、ユーザー体験やシステムの安定性に直接的な影響を及ぼす。
ジョージア工科大学とインテル(INTC)が共同発表した最新の研究結果は、エージェントの運用におけるCPUの中心的な役割を明確に数値化している。
データによると、RAG(検索拡張生成)、ウェブ接続型検索エージェント、集中的な科学研究という3つの主要なエージェント・タスクにおいて、CPU時間は総処理時間の80%以上を占めている。消費電力の指標もこの結論を裏付けており、中・大規模のバッチ処理シナリオでは、これら3つのタスクにおけるCPUの消費電力シェアは最大約60%に達する。
つまり、エージェントの動作中、電力の半分以上がCPUによって消費される一方で、市場で好まれるGPUはその大半の時間、CPUによるタスクスケジューリングの完了を待つアイドル状態にある。
この構造的な違いにより、CPUはエージェンティックAI時代における主要なパフォーマンス・ボトルネックとなり、世界のCPU需要の爆発的な増加を直接的に牽引している。
アーム( ARM)のレネ・ハース最高経営責任者(CEO)は、この成長規模を直感的に示す一連のデータを提示した。従来のAIワークロードではデータセンター容量1ギガワットあたり約3000万個のCPUコアが必要だったが、エージェンティックAI時代には、この需要は4倍に急増するという。
エージェンティックAI、独立型CPUサーバー・コンピューティング・ノードの需要を喚起
エージェンティックAIが牽引するCPU需要の拡大は、主に2つの要因に起因している。それは、個々のAIサーバー内におけるCPU数の大幅な増加と、GPUとCPUのクラスターを分散配置する新しいアーキテクチャの急速な採用である。
従来のAIサーバーでは、GPUとCPUの比率はおよそ8:1から8:2であった。GB200やVera-Rubinといった次世代AIアクセラレーション・アーキテクチャの導入により、この比率は2:1に向上した。Intelは2026年度第1四半期の決算説明会において、将来的なCPUとGPUの比率は現在の8:1から1:1へとさらに高まり、将来的にはさらにCPU側に傾斜する可能性があると明言した。
一方で、AIコンピューティング需要の爆発的な増加への対応、リソース利用の最大化、演算効率の向上、そしてシステム柔軟性の改善を目的として、業界はGPUとCPUのクラスターを分散配置する技術トレンドへと徐々に移行しつつある。
その中でも、マイクロソフト( MSFT )の次世代「Fairwater」データセンターは、このGPUとCPUクラスターの分散アーキテクチャ採用の先駆けとなった。この構成により、GPUは高負荷なモデル推論に集中し、CPUは複雑なタスクのスケジューリングやロジック処理を担うことが可能になり、システム全体のパフォーマンスが大幅に向上する。このトレンドは多くのクラウドプロバイダーによって追随されており、今後数年間にわたりスタンドアロンCPUサーバーの大規模な導入を促進し続けるだろう。
モルガン・スタンレーの最新の予測によると、AIエージェントは2030年までにCPU市場に325億ドルから600億ドルの増分成長をもたらし、サーバー向けCPUの市場規模全体を825億ドルから1,100億ドルにまで拡大させる見通しである。
モルガン・スタンレーが冷や水を浴びせる!インテルとAMDの追随買いに警鐘。
エージェンティックAI(Agentic AI)によるCPU需要の急増は市場予想を上回っている。上流のウェハー・ファウンドリの生産能力不足や原材料価格の上昇といった要因も相まって、世界のCPU市場における価格高騰と不足は今年一段と激化している。この需給の不均衡は今後1〜2年続くと予想される。
現在、データセンター・サーバー向けCPUではx86アーキテクチャが圧倒的な主流であり続けており、AMDとインテルがこのCPUスーパーサイクルの主な受益者となっている。UBSの分析によれば、2025年の従来のAI学習から2026/2027年のエージェンティックな推論シナリオへと移行するにつれ、CPUのワークロード要件は元の水準の3〜8倍に増加する見通しだ。
それにもかかわらず、モルガン・スタンレーはCPUメーカーに対して概ね強気な市場コンセンサスとは異なる見解を示している。同社は、投資家がCPU大手のインテルとAMDの2社に直接ポジションを持つことを推奨していない。AMDのクラウドCPU分野における市場シェアはインテルを抜いて53%に達しており、現在のCPUナラティブの直接的な受益者となっているものの、その株価パフォーマンスはGPU事業への期待により深く結びついている。一方、インテルの株価は主にファウンドリ事業の転換というナラティブに左右されており、いずれも純粋なCPU投資とは言えない。
モルガン・スタンレーは、現在の市場において真に純粋なAI関連のエクスポージャーを持つ銘柄は、エヌビディア、ブロードコム( AVGO )、マイクロン( MU )、サンディスク( SNDK )といった主要なメモリおよびGPU企業に集中していると考えている。
モルガン・スタンレーは、これらの銘柄を推奨する核心的な論理は「魅力的なバリュエーション」というシンプルなものだと述べた。インテルやAMDといったCPUメーカーの予想PER(株価収益率)は現在23〜64倍の範囲にあるが、エヌビディアの2027年度予想PERはわずか18倍であり、メモリ銘柄の予想PERは5〜9倍と低く、バリュエーション面で大幅に優れた魅力を提供している。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。














コメント (0)
$ボタンをクリックし、シンボルを入力して、株式、ETF、またはその他のティッカーシンボルをリンクします。