
Max A. Cherney Krystal Hu Deepa Seetharaman
[サンフランシスコ 2日 ロイター] - 対話型人工知能(AI)「チャットGPT」を手がける米オープンAIは、半導体大手エヌビディアNVDA.Oから提供されている最新チップの一部に不満を持ち、昨年以降代替製品を探している。こうした動きは両社の提携関係にも影を落とす恐れが出てきた。事情に詳しい8人の関係者が明らかにした。
背景には、AIの推論処理の特定要素に使われるチップを重視するというオープンAIの戦略転換がある。大規模AIモデルの学習用チップではエヌビディアが引き続き支配的地位を維持しているが、推論処理分野は新たな競争の舞台だ。
こうした中でオープンAIが推論処理チップについて代替製品を模索すると決断したことは、エヌビディアにとってAI関連チップにおける優位性を保てるかどうかの重大な試金石と言えそうだ。
昨年9月、エヌビディアはオープンAIに最大1000億ドルを投資する意向を表明。この取引によりエヌビディアはオープンAIの株式を取得し、オープンAIは高度なチップ購入に必要な資金を得る運びで、ロイターは数週間以内に完了する見込みだと伝えていた。
しかし実際には交渉が数カ月続いている。その間オープンAIはエヌビディアと競合する画像処理装置(GPU)を製造するAMDAMD.Oなどと契約を締結した。
また関係者の話では、オープンAIとエヌビディアの交渉停滞には、オープンAIの製品ロードマップ変更に伴って必要となる計算リソースの変化も影響している。
7人の関係者は、エヌビディアのハードウエアがソフトウエア開発やAIと他のソフトの連携といった特定の問題に関してチャットGPTユーザーに回答する速度に、オープンAIが満足していないと説明する。
関係者の1人はロイターに、オープンAIは将来的に推論処理需要の約10%に対応してくれる新たなハードウエアを必要としていると語った。
2人の関係者によると、オープンAIはより高速な推論処理を実現するチップ調達に向け、セレブラスやグロックなどのスタートアップ企業との協業も検討していた。
ただエヌビディアがグロックと200億ドル規模のライセンス契約を結んだため、オープンAIとの協議は打ち切られたもようだ。
オープンAIが昨年からGPU代替技術の模索を進め、SRAMと呼ばれる大容量メモリーをチップ本体と同じシリコン基板上に集積するチップの開発企業に焦点を当てている。高価なSRAMを可能な限り各チップに詰め込むことで、数百万のユーザーからの要求を処理するチャットボットやAIシステムに速度上の優位性をもたらすからだ。
推論処理は学習処理よりも多くのメモリーが必要で、その理由はチップが数式計算を実行するよりもメモリーからデータを取得する作業に多くの時間を費やすことが求められる点にある。エヌビディアとAMDのGPU技術は外部メモリーに依存しており、これが処理時間を増加させ、ユーザーがチャットボットとやり取りする速度の低下につながる。
エヌビディアのジェンスン・フアン最高経営責任者(CEO)は1月31日、オープンAIとの関係が緊迫しているとの報道を一蹴し、そうした見方は「ナンセンス」で、エヌビディアはオープンAIへの巨額投資を計画していると改めて表明した。
オープンAIは声明で、同社の推論用計算リソースの大半をエヌビディアに依存しており、推論処理においてエヌビディアが最高水準のコストパフォーマンスを提供していると強調した。
ロイターの記事が掲載された後、オープンAIのサム・アルトマンCEOはXへの投稿で、エヌビディアは「世界最高のAIチップ」を製造しており、オープンAIは「非常に長い間、大口顧客」であり続けたいと述べた。