tradingkey.logo

EXKLUSIV-Google arbeitet daran, Nvidias Software-Vorteil mit Metas Hilfe zu untergraben

ReutersDec 17, 2025 3:00 PM
  • Googles TorchTPU zielt darauf ab, die TPU-Kompatibilität mit PyTorch zu verbessern
  • Google will KI-Entwicklern helfen, die Abhängigkeit von Nvidias CUDA-Ökosystem zu verringern
  • Die TorchTPU-Initiative ist Teil von Googles Plan, mehr KI-Chip-Kunden zu gewinnen

- von Krystal Hu und Kenrick Cai und Stephen Nellis

- Alphabets GOOGL.O Google arbeitet an einer neuen Initiative, um seine Chips für künstliche Intelligenz besser mit PyTorch, dem weltweit am häufigsten verwendeten KI-Software-Framework, auszuführen. Damit soll die langjährige Dominanz von Nvidia NVDA.O auf dem Markt für KI-Computing geschwächt werden, wie mit der Angelegenheit vertraute Personen berichten.

Die Bemühungen sind Teil des aggressiven Plans von Google, seine Tensor Processing Units (link) zu einer echten Alternative zu den marktführenden GPUs von Nvidia zu machen. Die TPU-Verkäufe sind zu einem entscheidenden Wachstumsmotor (link) der Cloud-Einnahmen von Google geworden, da das Unternehmen versucht, den Investoren zu beweisen, dass seine KI-Investitionen Rendite bringen.

Aber Hardware allein reicht nicht aus, um die Akzeptanz zu steigern. Die neue Initiative, die intern als "TorchTPU" bekannt ist, zielt darauf ab, eine Schlüsselbarriere zu beseitigen, die die Akzeptanz von TPU-Chips verlangsamt hat, indem sie sie vollständig kompatibel und entwicklerfreundlich für Kunden macht, die ihre technische Infrastruktur bereits mit PyTorch-Software aufgebaut haben, so die Insider. Google erwägt auch das Open-Sourcing von Teilen der Software, um die Akzeptanz bei den Kunden zu beschleunigen, sagten einige der Personen.

Im Vergleich zu früheren Versuchen, PyTorch auf TPUs zu unterstützen, hat Google TorchTPU mehr organisatorischen Fokus, Ressourcen und strategische Bedeutung gewidmet, da die Nachfrage von Unternehmen wächst, die die Chips einsetzen wollen, aber den Software-Stack als Engpass betrachten, so die Insider.

PyTorch, ein Open-Source-Projekt, das stark von Meta Platforms META.O unterstützt wird, ist eines der am häufigsten verwendeten Tools für Entwickler, die KI-Modelle erstellen. Im Silicon Valley schreiben nur sehr wenige Entwickler jede Zeile des Codes, den Chips von Nvidia, Advanced Micro Devices AMD.O oder Google tatsächlich ausführen werden.

Stattdessen verlassen sich diese Entwickler auf Tools wie PyTorch, eine Sammlung von vorgefertigten Code-Bibliotheken und Frameworks, die viele gängige Aufgaben bei der Entwicklung von KI-Software automatisieren. Die Geschichte von PyTorch, das ursprünglich 2016 veröffentlicht wurde, ist eng mit der Entwicklung von CUDA durch Nvidia verbunden, der Software, die einige Wall-Street-Analysten als das stärkste Schutzschild des Unternehmens gegenüber der Konkurrenz betrachten.

Die Ingenieure von Nvidia haben jahrelang dafür gesorgt, dass mit PyTorch entwickelte Software so schnell und effizient wie möglich auf den Chips des Unternehmens läuft. Google hingegen lässt seine internen Softwareentwickler seit langem ein anderes Code-Framework namens Jax verwenden, und seine TPU-Chips nutzen ein Tool namens XLA, um diesen Code effizient laufen zu lassen. Ein Großteil von Googles eigenem KI-Software-Stack und der Leistungsoptimierung wurde um Jax herum aufgebaut, was die Kluft zwischen der Art und Weise, wie Google seine Chips verwendet, und der Art und Weise, wie Kunden sie verwenden wollen, vergrößert.

Ein Google-Cloud-Sprecher äußerte sich nicht zu den Einzelheiten des Projekts, bestätigte aber gegenüber Reuters, dass dieser Schritt den Kunden eine Wahlmöglichkeit bieten würde.

"Wir sehen eine massive, sich beschleunigende Nachfrage nach unserer TPU- und GPU-Infrastruktur", sagte der Sprecher. "Unser Fokus liegt darauf, Entwicklern die Flexibilität und Skalierbarkeit zu bieten, die sie brauchen, unabhängig von der Hardware, auf der sie bauen wollen."

TPU FÜR KUNDEN

Alphabet hatte lange Zeit den Löwenanteil seiner eigenen Chips, die TPUs, nur für den internen Gebrauch reserviert. Das änderte sich 2022, als die Cloud-Computing-Einheit von Google erfolgreich darauf hinwirkte, die Gruppe zu beaufsichtigen, die TPUs verkauft. Durch diesen Schritt wurde die Zuteilung von TPUs an Google Cloud drastisch erhöht. Da das Interesse der Kunden an KI gestiegen ist, hat Google versucht, daraus Kapital zu Übertroffen, indem es die Produktion und den Verkauf von TPUs an externe Kunden erhöht hat.

Aber die Diskrepanz zwischen den PyTorch-Frameworks, die von den meisten KI-Entwicklern weltweit verwendet werden, und den Jax-Frameworks, auf die Googles Chips derzeit am besten abgestimmt sind, bedeutet, dass die meisten Entwickler Googles Chips nicht einfach übernehmen und sie dazu bringen können, so gut zu funktionieren wie die von Nvidia, ohne erhebliche zusätzliche technische Arbeit zu leisten. Eine solche Arbeit kostet Zeit und Geld im schnelllebigen KI-Wettbewerb.

Wenn die "TorchTPU"-Initiative von Google erfolgreich ist, könnte sie die Umstellungskosten für Unternehmen, die Alternativen zu den GPUs von Nvidia suchen, erheblich senken. Die Dominanz von Nvidia wurde nicht nur durch seine Hardware, sondern auch durch sein CUDA-Software-Ökosystem gestärkt, das tief in PyTorch eingebettet ist und zur Standardmethode geworden ist, mit der Unternehmen große KI-Modelle trainieren und ausführen.

Unternehmenskunden haben Google mitgeteilt, dass TPUs für KI-Workloads schwieriger zu handhaben sind, weil sie in der Vergangenheit von den Entwicklern verlangten, zu Jax zu wechseln, einem Framework für maschinelles Lernen, das intern bei Google bevorzugt wird, und nicht zu PyTorch, das die meisten KI-Entwickler bereits verwenden, so die Insider.

GEMEINSAME ANSTRENGUNGEN MIT META

Um die Entwicklung zu beschleunigen, arbeitet Google eng mit Meta zusammen, dem Erfinder und Verwalter von PyTorch, so die Insider. Die beiden Tech-Giganten haben über Angebote für Meta gesprochen, um Zugang zu mehr TPUs zu erhalten, was zuerst von The Information berichtet wurde.

Frühe Angebote für Meta waren als von Google verwaltete Dienste strukturiert, bei denen Kunden wie Meta die Chips von Google installierten, die für die Ausführung von Google-Software und -Modellen entwickelt wurden, wobei Google den operativen Support übernahm. Meta hat ein strategisches Interesse daran, an Software zu arbeiten, die den Betrieb von TPUs erleichtert, um die Kosten für Inferenzen zu senken und seine KI-Infrastruktur von den GPUs von Nvidia weg zu diversifizieren, um Verhandlungsmacht zu gewinnen, so die Personen.

Meta lehnte eine Stellungnahme ab.

In diesem Jahr hat Google damit begonnen, TPUs direkt in die Rechenzentren der Kunden zu verkaufen, anstatt den Zugang zu seiner eigenen Cloud zu beschränken. Amin Vahdat, ein Google-Veteran, wurde diesen Monat zum Leiter der KI-Infrastruktur ernannt und berichtet direkt an CEO Sundar Pichai.

Google benötigt diese Infrastruktur sowohl für den Betrieb seiner eigenen KI-Produkte, einschließlich des Gemini-Chatbots und der KI-gestützten Suche, als auch für die Versorgung der Kunden von Google Cloud, das den Zugang zu TPUs an Unternehmen wie Anthropic verkauft.

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Verwandte Artikel

KeyAI