NVIDIAのジェンスン・フアンCEOは、メモリーチップメーカーに対し増産を促し、NVIDIAがすべて引き受けるとのメッセージを送った。リソース制約がAI業界のボトルネックになるとの見方に対し、フアン氏はこれを「素晴らしいニュース」と捉え、顧客が最高性能ソリューションを選択する傾向を強調。NVIDIAはサプライチェーン全体で供給量を確保できる受益者であり、DRAMメーカーに増産を呼びかけた。同社の次世代AIプラットフォームはHBM容量を大幅に増加させ、Vera RubinプラットフォームはHBM4を採用。サムスン電子とSKハイニックスがHBM4の主要サプライヤーとなり、2026年にはSKハイニックスがNVIDIAのHBM調達総額の半分以上を、サムスンがVera Rubin専用HBM4の大部分を確保する見通しだ。

TradingKey - NVIDIA ( NVDA) のジェンスン・フアン最高経営責任者(CEO)は、先日のモルガン・スタンレー・テクノロジー・カンファレンスにおいて、世界のメモリーチップメーカーに対し、「増産を進めてほしい、NVIDIAがすべて引き受ける」という強力なメッセージを送った。
出席者の多くが、メモリー、ウェハー、パッケージング、電力といったリソースの制約がAI業界のボトルネックになるとの見方を示すなか、フアン氏は、チップ供給の不足はNVIDIAにとって「素晴らしいニュース」であると断言し、周囲を驚かせた。
カンファレンスで、フアン氏はリソース制約に関する独自の論理を説明した。データセンターの用地、電力、スペースなどのリソースが限られている環境では、顧客の調達判断はより慎重になる。試行錯誤を繰り返すのではなく、最初から最高性能のソリューションを選択する傾向があるというのだ。
豊富な資金力と規模の優位性を背景に、NVIDIAはサプライチェーン全体で膨大な供給量を確保でき、当然ながらこの傾向の最大の受益者となる。同氏はDRAMメーカーに対し、「メモリー工場を建設してほしい。どれだけ生産能力を増やしても、NVIDIAがそれを消費する」とまで豪語した。
この「直感に反する」論理を世間に理解させるべく、フアン氏は自身が「制約を好む」ことを強調した。
リソースが逼迫しているとき、顧客は「1ワットあたりのトークン数」が最も高いハードウェアを的確に選択する必要があると説明。NVIDIAは現在、顧客のために「AI工場」全体をゼロから構築できる世界で唯一の企業であり、競合他社には真似できないエンドツーエンドのサービス能力を備えているとした。
NVIDIAは、大規模な「AI工場」の展開に必要なメモリー、ウェハー、CoWoSパッケージングなどの主要コンポーネントをすでに確保している。DRAM価格が上昇しても調達を縮小することはなく、サムスン電子、SKハイニックス、マイクロンといったメーカーに対し、明確な需要見通しを提示している。
フアン氏の発言の背景には、NVIDIAの次世代AIプラットフォームによる膨大なメモリーリソースへの需要がある。現行のGB300チップがサポートする高帯域幅メモリー(HBM)の容量は288GBに達しており、前世代のGB200の192GBから大幅に増加している。
今後登場するVera Rubinプラットフォームは288GBの容量を維持するものの、仕様はHBM3EからHBM4へとアップグレードされる。
HBM4は16層の積層設計を採用しており、HBM3Eの12層積層プロセスよりも複雑である。そのため、歩留まりの低下を招きやすく、単位出力あたりのメモリーリソースの消費量も大幅に増加する。
一方、NVIDIAの次世代AIアクセラレータ「Vera Rubin」向けの高帯域幅メモリー(HBM4)の供給体制が徐々に明らかになり、サムスン電子とSKハイニックスの両社が主要サプライヤーリストに名を連ねた。
報道によると、韓国のメモリー大手2社はすでにVera Rubinのコンポーネント供給システムに組み込まれている。ウェハーからパッケージングまでのHBM4の生産サイクルは6カ月を超えるため、両社は早ければ今月にも量産を開始する可能性があるという、
供給シェアの割り当てについては、2026年におけるNVIDIAのHBM調達総額(HBM3EおよびHBM4製品を含む)の半分以上をSKハイニックスが占め、一方のサムスンはVera Rubin専用HBM4の受注の大半を確保する見通しだ。
業界の予測データによると、SKハイニックスのHBMビット容量ベースの世界シェアは、2025年の59%から低下するものの、50%で業界首位を維持する見込みである。サムスンの世界シェアは20%から28%に上昇すると予想されており、激しい追い上げの勢いを見せている。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。