GoogleのAI圧縮アルゴリズム「TurboQuant」導入は、AIサーバー向けHBM需要減退懸念からMicron株価を押し下げた。TurboQuantはモデル精度を損なわずにメモリ使用量を大幅削減し、パフォーマンスを向上させる。市場はMicronの80%超グロスマージンは持続困難とみなし、サイクルのピーク到達と能力増強による過剰供給リスクを指摘。大規模拡張計画は変圧器不足などインフラボトルネックに直面しており、半導体サプライチェーン全体が圧力下にある。

TradingKey ― 水曜日、マイクロン・テクノロジー( MU)の株価は3.4%下落し、5営業日続落となった。
直近の売り圧力の要因は、Google( GOOGL)( GOOG)による発表にあるとみられる。同社は火曜日後半、圧縮アルゴリズム「TurboQuant」を導入した。Googleによれば、AIモデルの速度と効率を向上させつつ、メモリ使用量を大幅に削減できるという。
TurboQuantの核心的な突破口は、AIモデルの推論フェーズにおけるキー・バリュー・キャッシュ(KVキャッシュ)のボトルネックを解消した点にある。大規模AIモデルのコンテキストウィンドウが拡大し続ける中、KVキャッシュに保存される履歴データは幾何級数的に増加しており、モデルのパフォーマンスとコストを制限する主要な障害となっている。
ポーラー量子化(PolarQuant)と誤り訂正(QJL)の2段階アーキテクチャを通じて、Googleの新しいアルゴリズムは、モデルの精度を損なうことなく、KVキャッシュのメモリフットプリントを元の6分の1に圧縮し、最大8倍のパフォーマンス向上を実現した。
従来の圧縮技術とは異なり、TurboQuantはモデルの再学習やファインチューニングを必要とせず、既存のAIシステムに直接導入できる。テスト結果によれば、GemmaやMistralといったオープンソースモデルの長文ベンチマークにおいて、100%のリトリーバル・リコール率を維持している。
この「ゼロコスト」での効率向上により、AIサーバー向けのハイエンドな広帯域メモリ(HBM)に対する将来的な需要が減退するのではないかとの懸念が市場で広がった。マイクロンは世界3大HBMサプライヤーの1社であるため、株価は直接的な打撃を受けた。
一方で、マイクロンに対する市場の懸念も浮上し始めている。
収益面では、マイクロンの売上高総利益率(グロスマージン)がかつてない急上昇を見せており、次四半期のガイダンスでは創業以来の最高値となる80%超が示されている。
しかし、ウォール街の多くのアナリストは、マイクロンのマージンがサイクルのピークに達した可能性があり、その後1,000〜2,000ベーシスポイント低下する可能性があるとして警鐘を鳴らしている。
バンク・オブ・アメリカ( BAC)のアナリスト、ヴィヴェック・アリヤ氏は最新のレポートの中で、データセンター用eSSDやエヌビディアのKVキャッシュ・オフローディングによる新たな需要が確かにNAND型フラッシュメモリ市場を下支えしているものの、アプライド・マテリアルズのデータによれば、KVキャッシュ関連の需要はNAND市場全体のわずか1桁台の割合にとどまっており、マイクロンが長期的に80%超のグロスマージンを維持するのは困難であると指摘した。
同氏は、マイクロンのグロスマージンが最終的にはAIブーム以前の過去最高水準である60%〜70%の範囲に回帰すると予想しており、現在の収益水準は近い将来の成長を既に先取りしてしまっていることを示唆している。
収益性がピークに達しつつあることと並行して、マイクロンの積極的な能力増強に起因する長期的なリスクも存在する。台湾の銅鑼(トンルオ)拠点のアップグレードや米国での新たな国内工場の建設を含む、2026会計年度および2027会計年度の設備投資計画は、メモリチップ市場に賭ける明確な決意を示しているが、これは競合他社と比較して長期的な過剰供給のリスクを大幅に高めることになる。
具体的な数値で見ると、マイクロンは2026会計年度(2026年8月期)の設備投資予測を、当初の200億ドルから250億ドルへと大幅に上方修正した。さらに2027会計年度には、米国、台湾、日本でのウェハーファブ建設や拡張のために、さらに100億ドルの支出が見込まれている。
力強い収益成長への期待にもかかわらず、同社の予想EV/EBITDA倍率は現在、過去の中央値を下回っており、一見魅力的ではあるもののサイクルの変化に対して非常に敏感なバリュエーション構造となっている。これは、わずかな需要の減速や予想を上回るペースでの供給能力の放出が、マイクロンのバリュエーションの急激な調整につながる可能性があることを意味している。
さらに注目すべきは、Micronの大規模な拡張計画が、インフラのボトルネックという現実的な課題に直面している点である。
DigiTimesが業界関係者の情報を引用して報じたところによると、Micronはシンガポールに240億ドルを投資し、NAND型フラッシュメモリの生産能力を拡大する計画だ。このプロジェクトだけで400〜500基の変圧器が必要とされており、これは標準的なウェハーファブの通常必要量の2倍を超える。この規模はすでに台湾のどの変圧器メーカーの年間生産能力をも上回っており、重電機器の不足がAI主導の半導体拡張における主要なボトルネックとなりつつある。
Micronによる変圧器への膨大な需要は、AIに関連する次世代メモリチップ工場の極めて高い電力負荷を反映している。AIサーバーに使用される高帯域幅メモリ(HBM)の供給制約が長期化しているため、世界的な大手メモリチップメーカーは一斉に拡張計画を開始したが、これらの工場を支えるために必要な電力インフラの供給は、明らかに需要に追いついていない。
一方、サムスン電子とSKハイニックスも大規模な拡張計画を発表している。その根本的な論理は極めて一貫しており、AIサーバーによるHBMの消費が、既存の生産ラインの供給能力をはるかに上回っているということだ。
したがって、アジア、米州、欧州で工場の同時建設ラッシュが引き起こされており、様々なメモリチップ・プロジェクトが、限られた重電機器や原材料を巡って争奪戦を繰り広げている。
この需給バランスの不均衡の影響は、すでに価格や供給面で顕在化している。半導体業界からの注文急増と銅などの原材料コストの上昇という二重の影響により、富士電機やChuan Tai Electronicsといった台湾の主要な重電機器サプライヤーは価格を20%から30%引き上げた。一部の変圧器メーカーは、半導体プロジェクトの厳しい納期や大量の需要に応じきれず、こうした大規模プロジェクトへの見積もり提供を拒絶し始めている。
業界関係者は、現在、AIおよび半導体業界からの膨大な注文を単独で処理できるメーカーは存在せず、サプライチェーン全体がかつてない圧力に直面していると明かした。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。