
Meta konzentriert sich verstärkt auf die Entwicklung kundenspezifischer KI-Chips, da der Kampf um die Verringerung der Abhängigkeit von Nvidia in der gesamten Tech-Branche immer ernster wird.
Das Unternehmen gab an, im Jahr 2023 mit der Entwicklung des Meta Training and Inference Accelerator (MTIA) begonnen zu haben und nun in den nächsten zwei Jahren vier neue Chipgenerationen vorzubereiten.
Laut Meta werden diese Chips angeblich für Ranking-, Empfehlungs- und GenAI-Aufgaben in allen Produkten von Meta entwickelt.
Das Unternehmen erklärte außerdem, es setze nicht auf einen einzelnen Zulieferer oder eine einzelne Hardwarekomponente. Meta plant, weiterhin Silizium von verschiedenen Branchenakteuren zu beziehen und MTIA gleichzeitig als zentralen Bestandteil des eigenen KI-Infrastrukturplans zu etablieren.
Das Unternehmen selbst bezeichnet seinen Ansatz als „Portfolio-Ansatz“, da seine KI-Workloads wachsen und sich verändern. Das bedeutet, dass externe Chips mit intern entwickelten Chips kombiniert werden, anstatt die gesamte Technologiekette einem einzigen Anbieter zu überlassen.
Meta gab an, bereits Hunderttausende von MTIA-Chips für Inferenzprozesse im Zusammenhang mit organischen Inhalten und Anzeigen in seinen Apps einzusetzen.
Die Chips sind speziell für die internen Anwendungen des Unternehmens entwickelt worden, nicht für den allgemeinen Gebrauch. Das ist wichtig, denn laut Meta ist die Hardware Teil einer kundenspezifischen Komplettlösung, die ein optimal auf die täglichen Aufgaben abgestimmtes System bietet.
Das Unternehmen erklärte, dass diese Konfiguration eine bessere Recheneffizienz für die spezifischen Anwendungsfälle biete und die Kosten im Vergleich zu Chips mit breiterem Anwendungsbereich senke.
Die nächste Phase ist eine großflächige Markteinführung. Meta gab bekannt, dass die Versionen MTIA 300, 400, 450 und 500 entwickelt werden, wobei jede Version Verbesserungen bei Rechenleistung, Speicherbandbreite und Effizienz bietet. MTIA 300 ist bereits im Produktiveinsatz und wird für das Ranking und das Training von Empfehlungen verwendet.
MTIA 400, 450 und 500 können alle Workloads ausführen, aber Meta sagte, dass diese Chips in naher Zukunft und bis 2027 hauptsächlich für die GenAI-Inferenzproduktion verwendet werden.
Das Unternehmen gab außerdem an, dass die Siliziumchips modular aufgebaut seien, wodurch sich neue Chips in bestehende Rack-Systeminfrastrukturen integrieren ließen. Dies verkürze die Wartezeit zwischen Entwicklung und Einsatz.
Was die Veröffentlichungsgeschwindigkeit angeht, sagte Meta, dass die Branche normalerweise alle ein bis zwei Jahre einen neuen KI-Chip auf den Markt bringt, aber sie sei nun in der Lage, ihre eigenen Chips alle sechs Monate oder weniger durch die Wiederverwendung modularer Designs auf den Markt zu bringen.
Das Unternehmen erklärte, seine MTIA-Strategie basiere auf drei Säulen: schnelle Iteration, ein auf Inferenz ausgerichtetes Design und einfache Übernahme durch gemeinsame Standards.
Zum ersten Punkt erklärte dass der kürzere Release-Zyklus es dem Unternehmen ermögliche, sich schneller an veränderte KI-Techniken anzupassen, neuere Hardwaretechnologien einzuführen und die Kosten für die Entwicklung und den Einsatz neuer Chipversionen zu senken.
Beim zweiten Punkt grenzte Meta seinen Plan vom üblichen Marktmodell ab. Das Unternehmen erklärte, die meisten gängigen Chips würden zunächst für umfangreiche GenAI-Vortrainingsaufgaben entwickelt und anschließend für andere Anwendungen eingesetzt, oft zu einem höheren Kostenaufwand.
Meta gab an, das Gegenteil zu tun. MTIA 450 und 500 würden zunächst für GenAI-Inferenz optimiert und anschließend für Ranking, Empfehlungstraining und -inferenz sowie bei Bedarf für GenAI-Training eingesetzt.
Das Unternehmen gab außerdem an, dass MTIA von Anfang an auf Standardwerkzeugen und -systemen basiert, darunter PyTorch, vLLM, Triton und das Open Compute Project (OCP). Auch die System- und Rack-Designs entsprechen den OCP-Standards für den Einsatz in Rechenzentren.
Meta fügte hinzu, dass kein einzelner Chip alle Anforderungen erfüllen könne. Deshalb plane man, für unterschiedliche Arbeitslasten verschiedene Chips einzusetzen und gleichzeitig das zu verfolgen, was man als „persönliche Superintelligenz für alle“ bezeichne
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden .