
- von Max A. Cherney und Krystal Hu und Deepa Seetharaman
SAN FRANCISCO, 03. Feb (Reuters) - OpenAI ist mit einigen der neuesten Chips für künstliche Intelligenz von Nvidia unzufrieden und hat seit letztem Jahr nach Alternativen gesucht, so acht mit der Angelegenheit vertraute Insider, was die Beziehung zwischen den beiden profiliertesten Akteuren des KI-Booms möglicherweise verkompliziert.
Der Strategiewechsel des ChatGPT-Herstellers, über den hier zuerst berichtet wurde, beruht auf einer zunehmenden Konzentration auf Chips, die für die Durchführung bestimmter Elemente der KI-Inferenz verwendet werden, d. h. des Prozesses, bei dem ein KI-Modell wie das, das die ChatGPT-App antreibt, auf Kundenanfragen und -wünsche reagiert. Nvidia dominiert nach wie vor bei Chips für das Training großer KI-Modelle, während die Inferenz zu einer neuen Front im Wettbewerb geworden ist.
Die Entscheidung von OpenAI und anderen (link), nach Alternativen auf dem Markt für Inferenzchips zu suchen, ist ein wichtiger Test für Nvidias KI-Dominanz und kommt zu einem Zeitpunkt, an dem die beiden Unternehmen Investitionsgespräche führen.
Im September erklärte Nvidia, dass es beabsichtige, bis zu 100 Milliarden Dollar in OpenAI (link) zu investieren, als Teil eines Deals, der dem Chiphersteller eine Beteiligung an dem Startup verschaffte und OpenAI das nötige Geld gab, um die fortschrittlichen Chips zu kaufen.
Wie Reuters berichtet, sollte das Geschäft innerhalb weniger Wochen abgeschlossen werden. Stattdessen haben sich die Verhandlungen über Monate hingezogen. In dieser Zeit hat OpenAI mit AMD AMD.O und anderen Unternehmen Verträge über GPUs abgeschlossen, die mit denen von Nvidia konkurrieren können. Aber der sich ändernde Produktplan hat auch die Art der benötigten Rechenressourcen verändert und die Gespräche mit Nvidia verzögert, sagte eine mit der Angelegenheit vertraute Person.
Am Samstag wies Nvidia-CEO Jensen Huang einen Bericht über Spannungen mit OpenAI zurück und sagte, die Idee sei "Unsinn" (link) und dass Nvidia eine große Investition in OpenAI plane.
"Kunden entscheiden sich weiterhin für NVIDIA, weil wir die beste Leistung und die besten Gesamtbetriebskosten im großen Maßstab liefern", sagte Nvidia in einer Erklärung.
Ein Sprecher von OpenAI sagte in einer separaten Stellungnahme, dass das Unternehmen auf Nvidia vertraut, um den Großteil seiner Inferenzflotte zu betreiben, und dass Nvidia die beste Leistung pro Dollar für Inferenzen liefert.
Nach der Veröffentlichung der Reuters-Story schrieb OpenAI-Chef Sam Altman in einem Beitrag auf X, dass Nvidia "die besten KI-Chips der Welt" herstelle und dass OpenAI hoffe, "für eine sehr lange Zeit ein gigantischer Kunde" zu bleiben.
Sieben Insider sagten, dass OpenAI nicht mit der Geschwindigkeit zufrieden ist, mit der Nvidias Hardware Antworten auf ChatGPT-Benutzer für bestimmte Arten von Problemen wie Softwareentwicklung und KI-Kommunikation mit anderer Software ausspucken kann. Das Unternehmen benötigt neue Hardware, die in Zukunft etwa 10 Prozent des Bedarfs von OpenAI an Inferenzberechnungen abdecken könnte, sagte eine der Insider gegenüber Reuters.
Der ChatGPT-Hersteller hat die Zusammenarbeit mit Start-ups wie Cerebras und Groq erörtert, um Chips für schnellere Inferenzen zu liefern, so zwei Insider. Aber Nvidia schloss einen 20-Milliarden-Dollar-Lizenzvertrag mit Groq ab, der die Gespräche mit OpenAI beendete, sagte eine der Insider gegenüber Reuters.
Die Entscheidung von Nvidia, (link) wichtige Talente (link) bei Groq zu übernehmen, wirkte wie ein Versuch, das Technologieportfolio zu stärken, um in einer sich schnell verändernden KI-Branche besser konkurrieren zu können, so Führungskräfte aus der Chipindustrie. Nvidia erklärte in einer Erklärung, dass das geistige Eigentum von Groq die Produkt-Roadmap von Nvidia in hohem Maße ergänze.
NVIDIA-ALTERNATIVEN
Die Grafikchips von Nvidia eignen sich gut für die Verarbeitung umfangreicher Daten, die zum Trainieren großer KI-Modelle wie ChatGPT erforderlich sind, die bisher das explosive Wachstum der KI weltweit untermauert haben. Die Fortschritte in der KI konzentrieren sich jedoch zunehmend auf die Verwendung der trainierten Modelle für Schlussfolgerungen und Schlussfolgerungen, was eine neue, größere Stufe der KI darstellen könnte und die Bemühungen von OpenAI inspiriert.
Die Suche des ChatGPT-Herstellers nach GPU-Alternativen konzentrierte sich seit letztem Jahr auf Unternehmen, die Chips mit großen Speichermengen bauen, die in dasselbe Stück Silizium eingebettet sind wie der Rest des Chips, SRAM genannt. Wenn man so viel teuren SRAM wie möglich auf einen Chip quetscht, kann das Geschwindigkeitsvorteile für Chatbots und andere KI-Systeme bringen, wenn sie Anfragen von Millionen von Nutzern verarbeiten.
Für Schlussfolgerungen wird mehr Speicher benötigt als für das Training, da der Chip relativ mehr Zeit damit verbringen muss, Daten aus dem Speicher zu holen, als mathematische Operationen durchzuführen. Die GPU-Technologien von Nvidia und AMD sind auf externen Speicher angewiesen, was die Verarbeitungszeit erhöht und die Interaktion der Nutzer mit einem Chatbot verlangsamt.
Innerhalb von OpenAI wurde das Problem besonders in Codex sichtbar, dem Produkt zur Erstellung von Computercode, das das Unternehmen aggressiv vermarktet, fügte eine der Insider hinzu. Die Mitarbeiter von OpenAI führten einige der Schwächen von Codex auf die GPU-basierte Hardware von Nvidia zurück, sagte eine Insider.
In einem Telefongespräch mit Reportern am 30. Januar sagte Altman, dass Kunden, die die Codierungsmodelle von OpenAI nutzen, "einen großen Bewertung auf Geschwindigkeit bei der Codierungsarbeit legen"
Eine Möglichkeit für OpenAI, diese Nachfrage zu befriedigen, ist die jüngste Vereinbarung mit Cerebras, sagte Altman und fügte hinzu, dass Geschwindigkeit für gelegentliche ChatGPT-Benutzer weniger wichtig ist.
Konkurrierende Produkte wie Anthropic's Claude und Google's Gemini profitieren von Einsätzen, die sich stärker auf die von Google selbst entwickelten Chips stützen, die so genannten Tensor Processing Units (TPUs), die für die Art von Berechnungen ausgelegt sind, die für Inferenzen erforderlich sind, und die Leistungsvorteile gegenüber universellen KI-Chips wie den von Nvidia entwickelten GPUs bieten können.
NVIDIA AUF DEM VORMARSCH
Als OpenAI seine Vorbehalte gegenüber der Nvidia-Technologie deutlich machte, trat Nvidia an Unternehmen heran, die an SRAM-lastigen Chips arbeiteten, darunter Cerebras und Groq, um eine mögliche Übernahme zu erwirken, so die Personen. Cerebras lehnte ab und schloss eine kommerzielle Vereinbarung mit OpenAI ab, die letzten Monat bekannt gegeben wurde. Cerebras lehnte eine Stellungnahme ab.
Groq führte Gespräche mit OpenAI über ein Geschäft zur Bereitstellung von Rechenleistung und erhielt das Interesse von Investoren, die das Unternehmen mit einer Bewertung von etwa 14 Milliarden Dollar finanzieren wollten, so Personen, die mit den Gesprächen vertraut sind. Groq lehnte eine Stellungnahme ab.
Aber im Dezember hat Nvidia die Technologie von Groq in einem nicht-exklusiven Bargeldgeschäft lizenziert, so die Insider. Obwohl der Deal es anderen Unternehmen ermöglichen würde, die Technologie von Groq zu lizenzieren, konzentriert sich das Unternehmen jetzt auf den Verkauf von Cloud-basierter Software, da Nvidia die Chipdesigner von Groq abgeworben hat.