AIチップセクターに有力プレーヤーが参入、エヌビディアのライバルであるセレブラスが来週の上場を計画、今年最大の米国IPOを目指す
AIチップメーカーCerebrasは、5月14日にNasdaqへ上場し、今年最大規模のIPOとなる見通し。1株115〜125ドルで2800万株を発行、上限価格なら35億ドル調達。投資家需要の高まりから、価格帯が125〜135ドルに引き上げられる可能性もある。同社は、シリコンウェハー全体で巨大チップを製造する「ウェハースケール」アーキテクチャでNvidiaに挑戦。最新WSE-3チップはNvidia B200の56倍の面積を持ち、AI推論で大幅な高速化とコスト削減を実現。OpenAI、AWS、GSKなどが顧客であり、AI推論市場の成長を取り込む。

TradingKey - AIチップメーカーのCerebrasは、5月14日にティッカー「CBRS」でNasdaqに上場する計画であると報じられている。このIPOは、今年米国で最大の新規上場となる見通しであり、AI計算能力を巡る競争におけるNvidia( NVDA)に対する強力な挑戦者を、資本市場のスポットライトの下へと正式に送り出すことになる。
今週提出された届出書によると、CerebrasはIPOで2800万株を発行し、1株あたり115ドルから125ドルの価格帯を計画している。仮に上限価格で決定した場合、調達額は35億ドルに達し、時価総額は266億ドルとなる。ストックオプション等を含めた完全希薄化後の評価額は、約330億ドルに上る見込みだ。
特筆すべきは、事情に詳しい関係者が、投資家からの旺盛な需要を受け、Cerebrasが早ければ5月12日にも価格帯を1株125ドル〜135ドルに引き上げる可能性があることを明らかにした。今回のIPOは現在、募集枠の20倍を超える大幅な超過申し込みとなっている。
これはCerebrasにとって2度目のIPOへの挑戦となる。昨年10月、アブダビを拠点とする顧客G42からの出資を巡る米政府の審査を受け、上場申請を撤回していた。今回の再開は、AIインフラ投資の急増と米国IPO市場の回復が重なるタイミングとなり、市場の関心を一段と高めている。
セレブラスはなぜ、あえてエヌビディアに挑むのか。
2015年にカリフォルニア州で設立されたこのチップメーカーは、創業以来、GPUを超える全く新しい技術ルートを追求してきた。それは、ウェハーを複数のダイに切り分けてから繋ぎ合わせる従来の手法ではなく、シリコンウェハー全体を使用して巨大なチップを直接製造するというものである。この「ウェハースケール」アーキテクチャこそが、同社がNvidiaに挑む自信の源となっている。
同社の中心的な創業者数名は、かつてAMDなどの主要チップメーカーで技術職の要職を務めており、GPUの技術的限界や業界の課題(ペインポイント)を深く理解している。AIの学習と推論においてGPUが依然として主流のソリューションである市場環境の中で、Cerebrasは独自の道を歩み、Wafer-Scale Engine(WSE)チップを通じて、従来のGPUアーキテクチャの核心的なボトルネックを物理的なレベルで解消している。
最新のWSE-3チップを例に挙げると、4兆個のトランジスタと90万個の専用AI演算コアを統合している。チップ面積は46,225平方ミリメートルで、NvidiaのB200チップの56倍に達する。また、チップ上のSRAMメモリはB200の250倍、メモリ帯域幅は2,625倍に及ぶ。
この設計により、AIモデル全体を1枚のチップ上に完全に格納することが可能になり、GPUクラスター内の複数のチップ間で発生する頻繁なデータ転送に伴う遅延を根本的に排除できる。これは、大規模モデルの推論や超大規模な演算需要に対応する上で、大きな優位性をもたらす。
第三者機関のテストデータによると、Llama 4 Maverick 400Bモデルの推論シナリオにおいて、CerebrasのCS-3システムは1ユーザーあたり毎秒2,522トークンのレスポンス速度を達成しており、これはNvidiaのB200の2.4倍に相当する。また、Llama 3.1 8Bの小規模モデルのシナリオでは、NvidiaのH100の20倍の速度を誇り、トークンあたりのコストを最大80%削減できる。
ハードウェア性能の飛躍的向上にとどまらず、Cerebrasは専用ハードウェアからソフトウェアスタックに至る包括的なソリューションを構築し、CS-2やCS-3といったスーパーコンピューティングシステムを投入している。これらは顧客によるオンプレミスでの導入と、従量課金制のクラウドサービスの両方をサポートしている。
この柔軟なサービスモデルは、多くの有力顧客を惹きつけている。2026年1月、同社はOpenAIと200億ドルを超える3年間の協力契約を締結し、750メガワットの計算能力を配備することに合意した。3月にはAWSと提携してAmazon Web Services上でCS-3システムを提供開始し、大手クラウドプロバイダーのサプライチェーンに参入した初の非GPU型AIアクセラレーターとなった。さらに、グラクソ・スミスクライン(GSK)や米エネルギー省、複数の国立研究所も顧客に名を連ねており、その技術力の高さが多角的に実証されている。
市場動向に目を向けると、AI業界の重点は学習から推論へと移りつつある。世界のAI推論市場は2025年に1,062億ドルに達し、2030年には2,550億ドルにまで成長すると予測されている。Cerebrasの技術的な優位性は、まさにこの市場需要に合致するものである。
低遅延の推論シナリオにおける卓越したパフォーマンスを武器に、同社は開発者プラットフォームであるHuggingFaceにおける推論コール数で第1位を記録した。2025年には推論クラウドサービスによる収益が総売上の30%を占めるなど、Nvidiaが支配する市場において着実に独自の地位を築いている。
このコンテンツはAIを使用して翻訳され、明確さを確認しました。情報提供のみを目的としています。













