AIチップ新興企業セレブラスがIPOを再申請, エヌビディアの価格決定力を試す
AIチップメーカーCerebras Systemsは、ナスダックにIPOを再申請し、約20億ドルの調達を見込んでいる。同社はNvidiaに対抗し、12インチウェハー全体を利用した単一の巨大チップ(WSE-3)を製造しており、オンチップメモリによりデータ転送遅延を排除し、高速かつ低コストなAI推論と学習を実現すると主張している。2025年の売上高は5億1000万ドル、純利益8790万ドルと予想され、残存履行義務は246億ドルに達する。OpenAIおよびAmazonとの提携は、将来の収益を確実にする。CerebrasのIPOは、AI投資においてGPU以外の選択肢の重要性を示す可能性がある。

TradingKey — 以前の上場申請取り下げから数カ月後、AIチップメーカーのCerebras SystemsはIPOを再申請し、米東部時間金曜日にティッカーシンボル「CBRS」でNasdaqへの上場申請書を提出した。
Bloombergによると、Cerebrasは早ければ今年3月の時点で機密扱いでIPOを申請しており、今回の公募による調達額は約20億ドルに上る見込みだ。
セレブラス、エヌビディアに対抗するウエハー・スケールへの賭け
Cerebrasは、カリフォルニア州サニーベールに拠点を置くAIチップメーカー兼データセンター運営企業であり、現在はNvidiaの (NVDA) 最も手強い挑戦者の一人とみなされている。これは、同社が小規模ながらも、差別化を通じてNvidiaと競合しているためである。
技術分野において、Cerebrasの核心的な競争戦略は、超大型チップでNvidiaに挑むことにある。ウェハーを数百個のGPUに切り分けるNvidiaの手法とは異なり、Cerebrasは12インチウェハー全体を使用して単一の巨大チップを製造することを選択している。これはオンチップメモリ・アーキテクチャを活用したウェハースケール・チップであり、プロセッサコアと膨大なメモリ容量を同一ウェハー上に統合することで、データ転送の遅延を完全に排除している。
Cerebrasの主力製品であるWSE-3チップは、面積が4万6225平方ミリメートルとディナープレートよりも大きく、4兆個のトランジスタ(H100チップの50倍)と90万個のAI最適化コアを搭載している。Cerebrasは、GPUと比較してWSE-3チップはより高速かつ低コストで動作すると主張している。同社は、特にエンドユーザーのクエリに対する応答において、この巨大プロセッサの高速性能を強調している。
この巨大チップは、より高速で低遅延なAIモデルの実行(推論)だけでなく、学習にも利用できる。従来、数百個のGPUを必要としていた複雑なタスクも、わずか数個のWSE-3チップで、より少ない性能損失で実行可能となる。
Nvidiaの対応は、Cerebrasの差別化された優位性が実際に影響を及ぼしている可能性を示唆している。昨年、NvidiaはCerebrasのライバルであるGroqと、200億ドルのライセンス供与および人材獲得に関する契約を締結した。単一ウェハー上にプロセッサとメモリを統合するCerebrasのアプローチと同様に、GroqのチップもSRAMベースのメモリ・アーキテクチャを採用し、ゼロレイテンシの読み取り速度を強調している。
財務面では、Cerebrasの収益性は近年大幅に改善している。金曜日の提出書類によると、Cerebrasは2025年の売上高5億1000万ドルに対し、8790万ドルの純利益を報告した。売上高は、4億8500万ドルの純損失を記録した2024年と比較して約76%増加した。この顕著な収益性の向上は、上場後の投資家に対する魅力を高めることになるだろう。
Cerebrasは、昨年12月31日時点での残存履行義務が246億ドルに達し、その15%が2026年と2027年に収益として認識される見込みであると述べており、将来の収益の確実性を示している。
OpenAI・アマゾンの主軸:230億ドルの評価額を構築
今年2月時点で、Cerebrasは10億ドルのシリーズH資金調達ラウンドの完了を発表し、ポストマネー評価額は約230億ドルに達した。
今年1月、Cerebrasは2028年までに最大750メガワットの計算能力をOpenAIに提供する計画を発表した。この契約規模は200億ドルを超えるとされる。その見返りとして、OpenAIはCerebrasのワラントを受け取り、支出の増加に応じて持ち分比率を高めることができる。3年以内の総支出額が300億ドルに達した場合、OpenAIは最終的に約10%の株式を取得する可能性がある。
今年1月、Cerebrasは広範な合意の一環として、データセンターのインフラ構築とサービス提供を目的に、OpenAIから年利6%で10億ドルの融資を受けた。Cerebrasは、OpenAIとの提携により今後数年間で多額の収益が見込まれると述べている。
さらに、CerebrasはAmazonとも提携している (AMZN)。CNBCによると、Cerebrasは3月にAmazonと契約を締結し、Amazonに対し約2億7,000万ドル相当のCerebrasクラスN(無議決権)株の購入権を付与した。Amazon AWSは、自社開発のTrainiumチップとともにCerebrasのチップを導入し、より高速な推論コンピューティング・サービスを提供する。
IPOの影響:AI投資テーゼの転換
CerebrasのIPOは、従来のサイズ制約を打破するウェハー・スケール・アーキテクチャを採用し、オンチップ・メモリを内蔵したWSE-3のようなチップが、大規模モデルの推論においてコスト優位性を持つことを市場に示すことになるだろう。
もしCerebrasが最終的に、Nvidiaのサービスのわずか数分の一のコストで大規模なトークン提供を実現すれば、Nvidiaは推論側での値下げ加速を余儀なくされるか、あるいは同様の技術を搭載した新製品を予定より前倒しで投入せざるを得なくなり、同社のGPUロードマップを塗り替える可能性がある。
さらに、Cerebrasが長期的な財務健全性を維持できれば、AIがGPUと同義ではないこと、そして推論特化型チップが大きな潜在性を持つことが市場に認識され、ASICリーダーのBroadcom (AVGO)やMarvell (MRVL)、さらには独自のアーキテクチャを特徴とするArm (ARM)など、その他の非GPUチップ銘柄が押し上げられることになる。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。











