- von Stephen Nellis
SAN FRANCISCO, 26. Feb (Reuters) - Nvidia NVDA.O mag sein immenses Vermögen mit spezialisierten Grafikprozessoren (GPUs) gemacht haben, die für den Betrieb von Servern für künstliche Intelligenz verwendet werden, aber CEO Jensen Huang bekennt sich zunehmend zu seiner Liebe für die eher generalistische CPU.
Die CPU (Central Processing Unit) wurde jahrzehntelang als das Hauptgehirn eines Computers angesehen - ein Produkt, das meist mit Intel INTC.O oder manchmal mit Advanced Micro Devices AMD.O in Verbindung gebracht wird.
Huang sagt gerne, dass sich das Verhältnis in den letzten Jahren umgedreht hat, da früher 90 Prozent der Rechenleistung auf CPUs und 10 Prozent auf Chips wie den seinen entfielen.
Aber die CPU erlebt jetzt ein Comeback - sie wird zunehmend als gleichwertige, wenn nicht sogar bessere Option angesehen, da KI-Unternehmen ihre Modelle nicht mehr nur trainieren, sondern auch einsetzen - eine Veränderung, an der Nvidia einen großen Anteil haben will.
"Wir lieben CPUs genauso wie GPUs", sagte Huang am Mittwoch bei einem Telefonat mit Analysten anlässlich der Ergebnisse des vierten Quartals (link).
Er versicherte ihnen, dass Nvidia nicht nur bereit für die Rückkehr der CPU ins Rampenlicht sei, sondern auch, dass Nvidias eigene CPU-Angebote für Rechenzentren, die erstmals 2023 veröffentlicht werden (link), die Konkurrenz ausstechen würden.
Letzten Monat, auf der Consumer Electronics Show in Las Vegas im Januar, sagte Huang auch, dass die Zahl der Hochleistungs-CPUs von Nvidia, die in Rechenzentren eingesetzt werden, explodieren würde und dass er nicht überrascht wäre, "wenn Nvidia einer der größten CPU-Hersteller der Welt wird."
DIE CPU VERSUS DIE GPU
CPUs und GPUs erfüllen seit Jahrzehnten unterschiedliche Rechenaufgaben. CPUs sind generalistische Chips, die darauf ausgelegt sind, jede mathematische Aufgabe, die ein Softwareprogrammierer dem Chip stellt, mit angemessener Geschwindigkeit zu bewältigen, wenn man die Vielfalt der Aufgaben berücksichtigt.
Grafikprozessoren hingegen sind auf die Ausführung einer einfacheren Reihe von mathematischen Aufgaben spezialisiert, wobei sie diese einfachen Berechnungen Tausende von Malen gleichzeitig ausführen.
In Videospielen bedeutet dies, dass der Bewertung von Tausenden von Pixeln auf einem Bildschirm viele Male pro Sekunde berechnet wird, und in der KI-Arbeit bedeutet dies, dass große Zahlenmatrizen multipliziert und addiert werden, die Entwickler verwenden, um reale Daten wie Wörter und Bilder darzustellen.
KI-Unternehmen setzen zunehmend "Agenten" ein, die eigenständig Aufgaben wie das Schreiben von Code, das Durchsuchen von Dokumenten und das Verfassen von Forschungsberichten ausführen können - und diese Art der Datenverarbeitung "findet mehr und mehr und manchmal hauptsächlich auf der CPU statt", so Ben Bajarin, Analyst bei Creative Strategies.
Nvidias derzeitiges Flaggschiff unter den KI-Servern - der NVL72 - enthält 36 seiner CPUs und 72 seiner GPUs. Bajarin ist der Meinung, dass sich dies zu einem Verhältnis von 1 zu 1 für die so genannte agentenbasierte Arbeit ändern könnte oder dass die GPU sogar ganz weggelassen werden könnte.
NVIDIA WILL SEINEN STANDPUNKT UNTERMAUERN
Um seine CPU-Ambitionen zu unterstreichen, hat Nvidia vor kurzem eine Vereinbarung mit Meta Platforms META.O bekannt gegeben, die vorsieht, dass der Facebook-Eigentümer große Mengen seiner Grace- und Vera-CPU-Chips (link) auf eigenständiger Basis verwenden wird. Das ist eine relativ neue Entwicklung im Vergleich zu den aktuellen KI-Servern von Nvidia, bei denen jede CPU von mehreren GPUs begleitet wird.
Es ist jedoch nicht so, dass Meta den Anbieter für CPUs gewechselt hat - das Unternehmen sichert sich nur mehr Lieferanten. Einige Tage später kündigte AMD ebenfalls einen umfangreichen Vertrag mit Meta (link) an, der auch die CPUs von AMD umfasst, die Meta bereits seit Jahren bezieht.
In der Telefonkonferenz mit Analysten argumentierte Huang, dass Nvidia einen grundlegend anderen Ansatz für CPUs gewählt habe.
Er erläuterte, warum Nvidia einen Ansatz zur Zerlegung von Chips in kleinere Teile, den Intel und AMD verwendet haben, auf ein Minimum reduziert hat, und sagte, dass die Nvidia-CPU in der Lage sei, viele einfache Aufgaben hintereinander auszuführen und dabei einen guten Zugang zu einer großen Menge an Computerspeicher zu haben.
"Er ist so konzipiert, dass er sich auf sehr hohe Datenverarbeitungsfähigkeiten konzentriert", sagte Huang in der Telefonkonferenz. "Und der Grund dafür ist, dass die meisten der Computerprobleme, an denen wir interessiert sind, datengesteuert sind - künstliche Intelligenz ist eines davon."
Dave Altavilla, leitender Analyst bei HotTech Vision and ANALYSE, sagte, Nvidia wolle beweisen, dass der CPU-Typ, der einst hauptsächlich von Intel geliefert wurde, "nicht mehr die angenommene Standardgrundlage einer modernen Recheninfrastruktur ist. Stattdessen wird er nur eine architektonische Option unter mehreren"
Huang sagte, dass Nvidia mehr über seine CPUs auf der jährlichen Entwicklerkonferenz des Unternehmens im Silicon Valley im nächsten Monat bekannt geben werde.