
Max A. Cherney Krystal Hu Deepa Seetharaman
[サンフランシスコ 2月3日 ロイター] - オープンAIは、Nvidiaの最新の人工知能チップの一部に不満を持っており、昨年から代替品を探していると、この問題に詳しい8人の情報筋が語った。
チャットGPTメーカーの戦略転換の詳細は、ここで初めて報じられたが、AI推論の特定の要素(チャットGPTアプリに搭載されているようなAIモデルが顧客からの問い合わせやリクエストに応答する際のプロセス)を実行するために使用されるチップにますます重点が置かれている。Nvidiaは、大規模なAIモデルを訓練するためのチップでは優位を保っているが、推論は競争の新たな前線となっている。
オープンAIと他の企業((link))が推論チップ市場で代替品を探すという今回の決定は、NvidiaのAI支配に対する重要な試金石であり、両社が投資協議を行っている最中である。
9月、Nvidiaは、チップメーカーがスタートアップの株式を取得し、オープンAIが高度なチップを購入するために必要な現金を得る取引の一環として、オープンAI (link) に1000億ドルもの資金を投入する意向であると述べた。
ロイターによると、この取引は数週間以内に成立すると見られていた。その代わり、交渉は数ヶ月に渡って長引いた。その間、オープンAIはAMD AMD.Oなどと、Nvidiaに匹敵するGPUの契約を結んだ。しかし、製品ロードマップが変化したことで、必要とする計算資源の種類も変わり、Nvidiaとの交渉は泥沼化していると、この問題に詳しい人物は語った。
土曜日、NvidiaのCEOであるJensen Huang氏は、オープンAIとの緊張関係の報道を一蹴し、その考えは「ナンセンス」 (link)、NvidiaはオープンAIに巨額の投資を計画していると述べた。
Nvidiaは声明の中で、「顧客が推論にNVIDIAを選び続けているのは、我々がスケールにおいて最高のパフォーマンスと総所有コストを提供しているからだ」と述べた。
オープンAIの広報担当者は別の声明で、同社は推論フリートの大部分をNvidiaに依存しており、Nvidiaは推論においてドル当たり最高のパフォーマンスを提供していると述べた。
ロイターの記事が掲載された後、オープンAIの最高経営責任者サム・アルトマンはXへの投稿で、Nvidiaは「世界最高のAIチップ」を製造しており、オープンAIは「非常に長い間、巨大な顧客」であり続けたいと書いた。
7人の情報筋によると、オープンAIは、ソフトウェア開発やAIが他のソフトウェアと通信するといった特定のタイプの問題に対して、NvidiaのハードウェアがチャットGPTユーザーに答えを吐き出すスピードに満足していないという。将来的には、オープンAIの推論コンピューティング・ニーズの約10%を提供できるような新しいハードウェアが必要だと、情報筋の1人はReutersに語った。
チャットGPTメーカーは、Cerebras社やGroq社を含む新興企業と協業し、より高速な推論用チップを提供することを検討していると、2人の情報筋は語った。しかし、NvidiaはGroqと200億ドルのライセンス契約を結び、オープンAIの話を打ち切ったと、情報筋の1人はReutersに語った。
NvidiaがGroqの重要な人材((link)) (link) を獲得するという決定は、急速に変化するAI業界でより良い競争をするために技術のポートフォリオを強化する努力のように見えた、とチップ業界の幹部は語った。Nvidiaは声明の中で、Groqの知的財産はNvidiaの製品ロードマップを高度に補完すると述べた。
エヌビディアの代替製品
Nvidiaのグラフィック処理チップは、チャットGPTのような大規模なAIモデルの学習に必要な膨大なデータ処理に適している。しかし、AIの進歩は、学習させたモデルを推論や推論に利用することにますます重点を置くようになっており、これはAIの新たな大きなステージとなる可能性があり、オープンAIの取り組みを鼓舞している。
チャットGPTメーカーが昨年からGPUの代替品を探しているのは、SRAMと呼ばれる、チップの他の部分と同じシリコン片に大容量のメモリを組み込んだチップを製造している企業に注目している。高価なSRAMを可能な限り各チップに搭載することで、チャットボットやその他のAIシステムにとって、数百万人のユーザーからのリクエストを処理する際のスピードアップにつながる。
推論にはトレーニングよりも多くのメモリが必要だが、これはチップが数学演算を実行するよりも、メモリからデータをフェッチすることに比較的多くの時間を費やす必要があるためだ。NvidiaとAMDのGPUテクノロジーは外部メモリに依存しているため、処理時間がかかり、ユーザーがチャットボットと対話するスピードが遅くなる。
オープンAIの内部では、この問題は、同社が積極的にマーケティングを行っている、コンピュータコードを作成するための製品であるCodexで特に目につくようになったと、情報筋の一人は付け加えた。オープンAIのスタッフは、Codexの弱点の一部はNvidiaのGPUベースのハードウェアに起因していると、ある情報筋は語った。
1月30日の記者団との電話会談で、アルトマンは、オープンAIのコーディングモデルを使用する顧客は、"コーディング作業のスピードに大きな価値を置く "と述べた。
オープンAIがその需要に応える1つの方法は、Cerebras社との最近の契約であるとAltman氏は述べ、カジュアルなチャットGPTユーザーにとってはスピードはそれほど重要ではないと付け加えた。
AnthropicのClaudeやGoogleのGeminiのような競合製品は、Googleが自社で製造したTPU(テンソル処理ユニット)と呼ばれるチップに大きく依存した導入から利益を得ている。TPUは推論に必要な種類の計算のために設計されており、Nvidiaが設計したGPUのような汎用AIチップよりも性能面で優位に立つことができる。
動き出したNvidia
オープンAIがNvidiaの技術に難色を示すなか、NvidiaはCerebrasやGroqなど、SRAMを多用するチップを開発している企業に買収の可能性を打診したという。セレブラスはこれを断り、先月発表されたオープンAIとの商業契約を結んだ。セレブラスはコメントを控えた。
GroqはオープンAIとコンピューティングパワーを提供する契約について話し合いを持ち、約140億ドルの評価額で出資する投資家の関心を得たと、話し合いに詳しい関係者は述べている。Groqはコメントを拒否した。
しかし12月までに、Nvidiaは非独占的な現金取引でGroqの技術をライセンスすることに動いた、と情報筋は述べている。この契約により、他の企業もGroqの技術をライセンスできるようになるが、NvidiaがGroqのチップ設計者を雇い止めたため、同社は現在、クラウドベースのソフトウェアの販売に注力している。