tradingkey.logo

EXCLUSIVA-Meta comienza a probar su primer chip interno de entrenamiento de IA

Reuters11 de mar de 2025 10:00
  • Meta prueba el primer chip de entrenamiento de IA, parte de un plan para reducir la dependencia de proveedores como Nvidia
  • El objetivo del chip es reducir los costes de infraestructura de la IA, según las fuentes
  • Meta planea utilizar chips para recomendaciones e IA generativa

Por Katie Paul y Krystal Hu

- Meta META.O, propietaria de Facebook, está probando su primer chip propio para entrenar sistemas de inteligencia artificial, un hito clave en su intento de diseñar más de su propio silicio personalizado y reducir la dependencia de proveedores externos como Nvidia NVDA.O, dijeron dos fuentes a Reuters.

La mayor empresa de redes sociales del mundo ha iniciado un pequeño despliegue del chip y planea aumentar la producción para su uso a gran escala si la prueba va bien, dijeron las fuentes.

El impulso al desarrollo de chips propios forma parte de un plan a largo plazo de Meta para reducir sus enormes costes de infraestructura, ya que la empresa realiza costosas apuestas en herramientas de IA para impulsar el crecimiento.

Meta, que también es propietaria de Instagram y WhatsApp, ha previsto unos gastos totales para 2025 en (link) de entre 114.000 y 119.000 millones de dólares, incluidos hasta 65.000 millones de dólares en gastos de capital impulsados en gran medida por el gasto en infraestructura de IA.

Una de las fuentes dijo que el nuevo chip de entrenamiento de Meta es un acelerador dedicado, lo que significa que está diseñado para manejar sólo tareas específicas de IA. Esto puede hacerlo más eficiente desde el punto de vista energético que las unidades de procesamiento gráfico integradas (GPU) que suelen utilizarse para las cargas de trabajo de IA.

Meta está trabajando con el fabricante de chips taiwanés TSMC 2330.TW para producir el chip, según esta persona.

El despliegue de prueba comenzó después de que Meta terminara su primer "tape-out" del chip, un importante marcador de éxito en el trabajo de desarrollo de silicio que implica el envío de un diseño inicial a través de una fábrica de chips, dijo la otra fuente.

Un "tape-out" típico cuesta decenas de millones de dólares y tarda entre tres y seis meses en completarse, sin garantía de que la prueba tenga éxito. En caso de fallo, Meta tendría que diagnosticar el problema y repetir el proceso.

Meta y TSMC declinaron hacer comentarios.

El chip es el último de la serie Meta Training and Inference Accelerator (MTIA) de la empresa. El programa ha tenido un inicio titubeante (link) durante años y en un momento dado desechó un chip en una fase similar de desarrollo.

Sin embargo, el año pasado Metaempezó a utilizar un chip MTIA para realizar inferencia, es decir, el proceso que consiste en ejecutar un sistema de IA a medida que los usuarios interactúan con él, para los sistemas de recomendación que determinan qué contenidos aparecen en las noticias de Facebook e Instagram.

Los directivos de Meta han afirmado que quieren empezar a utilizar sus propios chips en 2026 para el entrenamiento, es decir, el proceso informático intensivo que consiste en alimentar el sistema de IA con montones de datos para "enseñarle" a actuar.

Al igual que con el chip de inferencia, el objetivo del chip de entrenamiento es empezar con sistemas de recomendación y, más adelante, utilizarlo para productos de IA generativa como la Meta AI de chatbot, según los ejecutivos.

"Estamos trabajando en la formación de sistemas de recomendación y, más adelante, en la formación e inferencia de la IA generativa", declaró Chris Cox, Director de Producto de Meta, en la conferencia sobre tecnología, medios de comunicación y telecomunicaciones de Morgan Stanley celebrada la semana pasada.

Cox describió los esfuerzos de desarrollo del chip de Meta como "una especie de caminar, gatear y correr" hasta ahora, pero dijo que los ejecutivos consideraban que el chip de inferencia de primera generación para recomendaciones era un "gran éxito"

Anteriormente, Meta había abandonado (link) después de que un chip de inferencia propio fracasara en una prueba a pequeña escala similar a la que está llevando a cabo con el chip de formación. En lugar de ello, dio marcha atrás y realizó pedidos de GPU Nvidia por valor de miles de millones de dólares en 2022.

Desde entonces, la empresa de redes sociales ha seguido siendo uno de los principales clientes de Nvidia y ha acumulado un arsenal de GPU para entrenar sus modelos, incluidos los sistemas de recomendaciones y anuncios y su serie de modelos de la fundación Llama. Las unidades también realizan inferencias para los más de 3.000 millones de personas que utilizan sus aplicaciones cada día.

El valor de esas GPU se ha puesto en duda este año a medida que los investigadores de IA expresan cada vez más dudas (link) sobre cuánto más se puede avanzar si se siguen "ampliando" los grandes modelos lingüísticos añadiendo cada vez más datos y potencia de cálculo.

Estas dudas se vieron reforzadas con el lanzamiento a finales de enero de los nuevos modelos debajo coste de la empresa china DeepSeek, que optimizan la eficiencia computacional basándose más en la inferencia que la mayoría de los modelos existentes.

En un descalabro mundial inducido por DeepSeek (link) en valores de IA, las acciones de Nvidiaperdieron hasta una quinta parte de su valor en un momento dado. Posteriormente recuperaron la mayor parte de ese terreno (link), con los inversores apostando a que los chips de la compañía seguirán siendo el estándar de la industria para la formación y la inferencia, aunque han vuelto a caer por preocupaciones comerciales más amplias.

Descargo de responsabilidad: La información proporcionada en este sitio web es solo para fines educativos e informativos, y no debe considerarse como asesoramiento financiero o de inversión.

Artículos Relacionados

Tradingkey
KeyAI