tradingkey.logo

EXCLUSIVO-Fontes dizem que a OpenAI está insatisfeita com alguns chips da Nvidia e busca alternativas.

Reuters2 de fev de 2026 às 21:13
  • A OpenAI busca alternativas à Nvidia para chips de inferência de IA.
  • O investimento de US$ 100 bilhões da Nvidia na OpenAI foi adiado.
  • A OpenAI explorou acordos com a AMD, a Cerebras e a Groq.

Por Max A. Cherney e Krystal Hu e Deepa Seetharaman

- A OpenAI está insatisfeita com alguns dos chips de inteligência artificial mais recentes da Nvidia e busca alternativas desde o ano passado. oito Fontes familiarizadas com o assunto disseram que isso pode complicar a relação entre os dois atores mais proeminentes no boom da IA.

A mudança de estratégia do criador do ChatGPT, cujos detalhes são relatados aqui pela primeira vez, reside na crescente ênfase em chips usados ​​para realizar operações. elementos específicos de Inferência de IA, o processo pelo qual um modelo de IA, como o que alimenta o aplicativo ChatGPT, responde a perguntas e solicitações do cliente. A Nvidia continua dominante no mercado de chips. para treinar grandes modelos de IA, enquanto a inferência se tornou uma nova frente na competição.

Essa decisão foi tomada pela OpenAI. e outros (link) A busca por alternativas no mercado de chips de inferência representa um teste significativo para o domínio da Nvidia em IA e ocorre em um momento em que as duas empresas estão em negociações de investimento.

Em setembro, a Nvidia afirmou que pretendia investir até US$ 100 bilhões na OpenAI. (link) como parte de um acordo que deu à fabricante de chips uma participação na startup e forneceu à OpenAI o dinheiro necessário para comprar os chips avançados.

A expectativa era de que o acordo fosse fechado em poucas semanas, segundo a Reuters. Em vez disso, as negociações se arrastam há meses. Durante esse período, a OpenAI fechou acordos com a AMD AMD.O. e outros para GPUs projetadas para rivalizar com as da Nvidia. Mas a mudança em seu roteiro de produtos também alterou o tipo de recursos computacionais necessários e emperrou as negociações com a Nvidia, disse uma pessoa familiarizada com o assunto.

No sábado, o presidente-executivo da Nvidia, Jensen Huang, descartou uma notícia sobre tensões com a OpenAI, dizendo que a ideia era "um absurdo". (link) e que a Nvidia planejava um enorme investimento na OpenAI.

"Os clientes continuam a escolher a NVIDIA para inferência porque oferecemos o melhor desempenho e custo total de propriedade em grande escala", afirmou a Nvidia em comunicado.

Em um comunicado separado, um porta-voz da OpenAI afirmou que a empresa depende da Nvidia para alimentar a grande maioria de sua frota de inferência e que a Nvidia oferece o melhor desempenho por dólar investido em inferência.

Sete Fontes afirmaram que a OpenAI não está satisfeita com a velocidade com que o hardware da Nvidia consegue fornecer respostas ao ChatGPT. usuários para tipos específicos de problemas, como desenvolvimento de software e IA se comunicando com outros softwares. Isto precisa novo hardware que iria eventualmente Uma das fontes disse à Reuters que a plataforma deverá suprir cerca de 10% das necessidades de computação inferencial da OpenAI no futuro.

A fabricante do ChatGPT discutiu a possibilidade de trabalhar com startups como Cerebras e Groq para fornecer chips que permitam uma inferência mais rápida, segundo duas fontes. No entanto, a Nvidia fechou um acordo de licenciamento de US$ 20 bilhões com a Groq, o que encerrou as negociações com a OpenAI. Uma das fontes disse à Reuters.

A decisão da Nvidia de adquirir (link) talento chave (link) no Segundo executivos da indústria de semicondutores, a Groq pareceu ser uma tentativa de fortalecer um portfólio de tecnologias para melhor competir em um setor de IA em rápida transformação. Em comunicado, a Nvidia afirmou que a propriedade intelectual da Groq era altamente complementar ao seu plano de desenvolvimento de produtos.

ALTERNATIVAS À NVIDIA

Os chips de processamento gráfico da Nvidia são ideais para o processamento massivo de dados necessário para treinar grandes modelos de IA, como o ChatGPT, que impulsionaram o crescimento explosivo da IA ​​em todo o mundo até hoje. No entanto, os avanços em IA estão cada vez mais focados no uso de modelos treinados para inferência e raciocínio, o que... poderia ser um novo e maior estágio da IA, inspirando os esforços da OpenAI.

Desde o ano passado, a busca da criadora do ChatGPT por alternativas à GPU tem se concentrado em empresas que fabricam chips com grandes quantidades de memória integradas no mesmo chip de silício. assim como o resto do chip, chamado SRAM. Comprimindo o máximo possível caro A inclusão de SRAM em cada chip, sempre que possível, pode oferecer vantagens de velocidade para chatbots e outros sistemas de IA, à medida que processam solicitações de milhões de usuários.

A inferência requer mais memória do que o treinamento, porque o chip precisa gastar relativamente mais tempo buscando dados na memória do que realizando operações matemáticas. A tecnologia de GPUs da Nvidia e da AMD depende de memória externa, que Aumenta o tempo de processamento e diminui a velocidade com que os usuários podem interagir com o chatbot.

Dentro da OpenAI, o problema tornou-se particularmente visível no Codex, seu produto para criação de código de computador, que a empresa vem comercializando agressivamente, acrescentou uma das fontes. Funcionários da OpenAI atribuíram parte da fragilidade do Codex ao hardware baseado em GPUs da Nvidia, disse uma fonte.

Em uma teleconferência com jornalistas em 30 de janeiro, o presidente-executivo Sam Altman afirmou que os clientes que utilizam os modelos de codificação da OpenAI "darão grande importância à velocidade no trabalho de programação".

Uma das maneiras pelas quais a OpenAI atenderá a essa demanda é por meio de seu recente acordo com a Cerebras, disse Altman, acrescentando que a velocidade é menos imperativa para casual Usuários do ChatGPT.

Produtos concorrentes como o Claude da Anthropic e o Gemini do Google se beneficiam de implementações que dependem mais dos chips desenvolvidos internamente pelo Google, chamados de unidades de processamento de tensores, ou TPUs, que são projetados para o tipo de cálculo necessário para inferência e podem oferecer vantagens de desempenho em relação a chips de IA de uso geral, como as GPUs projetadas pela Nvidia.

NVIDIA EM MOVIMENTO

Como a OpenAI deixou claras suas reservas em relação à tecnologia da Nvidia, a Nvidia abordou empresas que trabalham com chips com grande quantidade de SRAM, incluindo a Cerebras e a Groq, sobre uma possível aquisição, disseram as fontes. A Cerebras recusou e fechou um acordo comercial com a OpenAI, anunciado no mês passado. A Cerebras recusou-se a comentar.

Segundo pessoas familiarizadas com as discussões, a Groq manteve conversas com a OpenAI para um acordo de fornecimento de poder computacional e recebeu interesse de investidores para financiar a empresa, que foi avaliada em cerca de US$ 14 bilhões. A Groq recusou-se a comentar.

Mas em dezembro, A Nvidia adquiriu a licença da tecnologia da Groq em um acordo não exclusivo, totalmente em dinheiro, segundo fontes. Embora o acordo permita que outras empresas licenciem a tecnologia da Groq, a empresa agora está focada na venda de software baseado em nuvem, já que a Nvidia contratou os projetistas de chips da Groq.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.
KeyAI