tradingkey.logo

EXCLUSIVA-OpenAI no está satisfecha con algunos chips de Nvidia y busca alternativas, según fuentes

Reuters2 de feb de 2026 21:13
  • OpenAI busca alternativas a Nvidia para los chips de inferencia de IA
  • Se retrasa la inversión de 100.000 millones de dólares de Nvidia en OpenAI
  • OpenAI explora acuerdos con AMD, Cerebras y Groq

Por Max A. Cherney, Krystal Hu y Deepa Seetharaman

- OpenAI no está satisfecha con algunos de los últimos chips de inteligencia artificial de Nvidia y lleva buscando alternativas desde el año pasado, según ocho fuentes familiarizadas con el asunto, lo que podría complicar la relación entre los dos protagonistas más destacados del auge de la IA.

El cambio de estrategia del fabricante de ChatGPT, del que se informó por primera vez aquí, se debe a un creciente énfasis en los chips utilizados para realizar elementos específicos de inferencia de IA, el proceso en el que un modelo de IA como el que impulsa la aplicación ChatGPT responde a las consultas y peticiones de los clientes. Nvidia sigue dominando el mercado de los chips para el entrenamiento de grandes modelos de IA, mientras que la inferencia se ha convertido en un nuevo frente en la competición.

La decisión de OpenAI y otras empresas ( (link) ) de buscar alternativas en el mercado de los chips de inferencia pone a prueba la hegemonía de Nvidia en el campo de la IA y se produce en un momento en el que ambas compañías están en conversaciones para invertir .

En septiembre, Nvidia anunció su intención de invertir hasta 100.000 millones de dólares en OpenAI (link) en el marco de un acuerdo que le otorgaba una participación en la empresa y le proporcionaba el efectivo necesario para comprar los chips avanzados.

Se esperaba que el acuerdo se cerrara en cuestión de semanas, según Reuters. Sin embargo, las negociaciones se han prolongado durante meses. Durante ese tiempo, OpenAI ha llegado a acuerdos con AMD AMD.O y otros fabricantes para adquirir GPU que compitan con las de Nvidia. Pero los cambios en la hoja de ruta de sus productos también han modificado el tipo de recursos computacionales que necesita y han empantanado las conversaciones con Nvidia, según una persona familiarizada con el asunto.

El sábado, el consejero delegado de Nvidia, Jensen Huang, se desentendió de un informe sobre tensiones con OpenAI, afirmando que se trataba de una "tontería" (link) y que Nvidia tenía prevista una enorme inversión en OpenAI.

"Los clientes siguen eligiendo NVIDIA para la inferencia porque ofrecemos el mejor rendimiento y coste total de propiedad a escala", afirma Nvidia en un comunicado.

Por su parte, un portavoz de OpenAI afirmó en otro comunicado que la compañía confía en Nvidia para alimentar la gran mayoría de su flota de inferencia y que Nvidia ofrece el mejor rendimiento por dólar para la inferencia.

Siete fuentes afirmaron que OpenAI no está satisfecha con la velocidad a la que el hardware de Nvidia puede escupir respuestas a los usuarios de ChatGPT para tipos específicos de problemas como el desarrollo de software y la comunicación de la IA con otro software. Necesita un nuevo hardware que le permita cubrir en el futuro alrededor del 10% de las necesidades de OpenAI en materia de cálculo de inferencias, según declaró una de las fuentes a Reuters.

El fabricante de ChatGPT ha hablado de trabajar con empresas emergentes como Cerebras y Groq para proporcionar chips que permitan una inferencia más rápida, según dos fuentes. Pero Nvidia llegó a un acuerdo de licencia de 20.000 millones de dólares con Groq que interrumpió las conversaciones de OpenAI, dijo una de las fuentes a Reuters.

La decisión de Nvidia de hacerse con los talentos clave de (link) (link) en Groq parece un esfuerzo por reforzar su cartera de tecnología para competir mejor en una industria de IA en rápida evolución, según ejecutivos del sector del chip. En un comunicado, Nvidia afirma que la propiedad intelectual de Groq complementa en gran medida la hoja de ruta de productos de Nvidia.

ALTERNATIVAS DE NVIDIA

Los chips de procesamiento gráfico de Nvidia son idóneos para el procesamiento masivo de datos necesario para entrenar grandes modelos de IA, como ChatGPT, que han sustentado el explosivo crecimiento de la IA en todo el mundo hasta la fecha. Pero los avances de la IA se centran cada vez más en el uso de modelos entrenados para la inferencia y el razonamiento, lo que podría constituir una nueva y mayor etapa de la IA e inspirar los esfuerzos de OpenAI.

Desde el año pasado, la búsqueda de alternativas a las GPU por parte del fabricante de ChatGPT se ha centrado en las empresas que fabrican chips con grandes cantidades de memoria integrada en la misma pieza de silicio que el resto del chip, denominada SRAM. Introducir la mayor cantidad posible de costosa SRAM en cada chip puede ofrecer ventajas de velocidad a los chatbots y otros sistemas de IA que procesan peticiones de millones de usuarios.

La inferencia requiere más memoria que el entrenamiento porque el chip necesita dedicar relativamente más tiempo a obtener datos de la memoria que a realizar operaciones matemáticas. La tecnología de GPU de Nvidia y AMD depende de la memoria externa, lo que añade tiempo de procesamiento y ralentiza la rapidez con la que los usuarios pueden interactuar con un chatbot.

Dentro de OpenAI, el problema se hizo especialmente visible en Codex, su producto para crear código informático, que la empresa ha estado comercializando agresivamente, añadió una de las fuentes. El personal de OpenAI atribuyó parte de la debilidad de Codex al hardware basado en GPU de Nvidia, dijo una de las fuentes.

En una llamada con periodistas el 30 de enero, el CEO Sam Altman dijo que los clientes que utilizan los modelos de codificación de OpenAI "pondrán una gran prima en la velocidad para el trabajo de codificación."

Una forma en que OpenAI satisfará esa demanda es a través de su reciente acuerdo con Cerebras, dijo Altman, añadiendo que la velocidad es menos imperativa para los usuarios ocasionales de ChatGPT.

Productos de la competencia como Claude, de Anthropic, y Gemini, de Google, se benefician de implantaciones que dependen en mayor medida de los chips de fabricación propia de Google, denominados unidades de procesamiento tensorial (TPU), diseñados para el tipo de cálculos necesarios para la inferencia y que pueden ofrecer ventajas de rendimiento frente a los chips de IA de uso general, como las GPU diseñadas por Nvidia.

NVIDIA EN MOVIMIENTO

Cuando OpenAI dejó claras sus reservas sobre la tecnología de Nvidia, ésta se puso en contacto con empresas que trabajaban en chips con gran cantidad de SRAM, como Cerebras y Groq, para estudiar una posible adquisición. Cerebras declinó la oferta y llegó a un acuerdo comercial con OpenAI anunciado el mes pasado. Cerebras declinó hacer comentarios.

Groq mantuvo conversaciones con OpenAI para un acuerdo para proporcionar potencia de cálculo y recibió el interés de los inversores para financiar la empresa en una valoración de aproximadamente 14.000 millones de dólares, según personas familiarizadas con las discusiones. Groq declinó hacer comentarios.

Pero en diciembre, Nvidia decidió conceder la licencia de la tecnología de Groq en un acuerdo no exclusivo y totalmente en efectivo, según las fuentes. Aunque el acuerdo permitiría a otras empresas licenciar la tecnología de Groq, la compañía se centra ahora en la venta de software basado en la nube, ya que Nvidia contrató a los diseñadores de chips de Groq.

Descargo de responsabilidad: La información proporcionada en este sitio web es solo para fines educativos e informativos, y no debe considerarse como asesoramiento financiero o de inversión.
KeyAI