
Por Max A. Cherney e Krystal Hu e Deepa Seetharaman
San Francisco, 3 Fev (Reuters) - A OpenAI está insatisfeita com alguns dos chips de inteligência artificial mais recentes da Nvidia e busca alternativas desde o ano passado, disseram oito fontes familiarizadas com o assunto, o que pode complicar a relação entre as duas empresas de maior destaque no boom da IA.
A mudança de estratégia da OpenAI, criadora do ChatGPT, cujos detalhes são relatados aqui em primeira mão, concentra-se em chips usados para executar elementos específicos de inferência de IA, o processo pelo qual um modelo de IA, como o que alimenta o aplicativo ChatGPT, responde a perguntas e solicitações do cliente. A Nvidia continua dominante no mercado de chips para treinamento de grandes modelos de IA, enquanto a inferência se tornou uma nova frente na competição.
Essa decisão da OpenAI e de outras empresas (link) de buscar alternativas no mercado de chips de inferência representa um teste significativo para o domínio da Nvidia em IA e ocorre em um momento em que as duas empresas estão em negociações de investimento.
Em setembro, a Nvidia afirmou que pretendia investir até US$ 100 bilhões na OpenAI (link) como parte de um acordo que deu à fabricante de chips uma participação na startup e forneceu à OpenAI o dinheiro necessário para comprar os chips avançados.
A expectativa era de que o acordo fosse fechado em poucas semanas, segundo a Reuters. Em vez disso, as negociações se arrastam há meses. Nesse período, a OpenAI fechou acordos com a AMD AMD.O e outras empresas para GPUs projetadas para rivalizar com as da Nvidia. Mas a evolução de seu roteiro de produtos também alterou o tipo de recursos computacionais necessários e emperrou as negociações com a Nvidia, disse uma pessoa familiarizada com o assunto.
No sábado, o presidente-executivo da Nvidia, Jensen Huang, descartou uma notícia sobre tensões com a OpenAI, dizendo que a ideia era "um absurdo" (link) e que a Nvidia planejava um enorme investimento na OpenAI.
"Os clientes continuam a escolher a NVIDIA para inferência porque oferecemos o melhor desempenho e custo total de propriedade em grande escala", afirmou a Nvidia em comunicado.
Em um comunicado separado, um porta-voz da OpenAI afirmou que a empresa depende da Nvidia para alimentar a grande maioria de sua frota de inferência e que a Nvidia oferece o melhor desempenho por dólar investido em inferência.
Após a publicação da reportagem da Reuters, o presidente-executivo da OpenAI, Sam Altman, escreveu em um post no X que a Nvidia fabrica "os melhores chips de IA do mundo" e que a OpenAI espera continuar sendo um "cliente gigantesco por muito tempo".
Sete fontes afirmaram que a OpenAI não está satisfeita com a velocidade com que o hardware da Nvidia consegue fornecer respostas aos usuários do ChatGPT para tipos específicos de problemas, como desenvolvimento de software e comunicação entre IA e outros softwares. Segundo uma das fontes, a empresa precisa de um novo hardware que, no futuro, atenda a cerca de 10% das necessidades de computação inferencial da OpenAI.
A fabricante do ChatGPT discutiu a possibilidade de trabalhar com startups como Cerebras e Groq para fornecer chips que permitam uma inferência mais rápida, disseram duas fontes. No entanto, a Nvidia fechou um acordo de licenciamento de US$ 20 bilhões com a Groq, o que encerrou as negociações com a OpenAI, disse uma das fontes à Reuters.
A decisão da Nvidia de adquirir (link) talento chave (link) da Groq pareceu ser um esforço para fortalecer um portfólio de tecnologias e, assim, competir melhor em um setor de IA em rápida transformação, disseram executivos da indústria de semicondutores. A Nvidia, em comunicado, afirmou que a propriedade intelectual da Groq era altamente complementar ao seu plano de desenvolvimento de produtos.
ALTERNATIVAS DA NVIDIA
Os chips de processamento gráfico da Nvidia são ideais para o processamento massivo de dados necessário para treinar grandes modelos de IA, como o ChatGPT, que impulsionaram o crescimento explosivo da IA em todo o mundo até o momento. No entanto, os avanços em IA estão cada vez mais focados no uso de modelos treinados para inferência e raciocínio, o que pode representar um novo e maior estágio da IA, inspirando os esforços da OpenAI.
Desde o ano passado, a busca dos criadores do ChatGPT por alternativas à GPU tem se concentrado em empresas que fabricam chips com grandes quantidades de memória embutida no mesmo chip de silício que o restante do chip, chamada SRAM. Condensar o máximo possível de SRAM, que é cara, em cada chip pode oferecer vantagens de velocidade para chatbots e outros sistemas de IA, à medida que processam solicitações de milhões de usuários.
A inferência exige mais memória do que o treinamento, pois o chip precisa gastar relativamente mais tempo buscando dados na memória do que realizando operações matemáticas. A tecnologia de GPUs da Nvidia e da AMD depende de memória externa, o que aumenta o tempo de processamento e diminui a velocidade com que os usuários podem interagir com o chatbot.
Dentro da OpenAI, o problema tornou-se particularmente visível no Codex, seu produto para criação de código de computador, que a empresa vem comercializando agressivamente, acrescentou uma das fontes. Funcionários da OpenAI atribuíram parte da fragilidade do Codex ao hardware baseado em GPUs da Nvidia, disse uma fonte.
Em uma teleconferência com jornalistas em 30 de janeiro, Altman afirmou que os clientes que utilizam os modelos de codificação da OpenAI "darão grande importância à velocidade no trabalho de programação".
Uma das maneiras pelas quais a OpenAI atenderá a essa demanda é por meio de seu recente acordo com a Cerebras, disse Altman, acrescentando que a velocidade é menos importante para usuários casuais do ChatGPT.
Produtos concorrentes como o Claude da Anthropic e o Gemini do Google se beneficiam de implementações que dependem mais dos chips desenvolvidos internamente pelo Google, chamados de unidades de processamento de tensores, ou TPUs, que são projetados para o tipo de cálculo necessário para inferência e podem oferecer vantagens de desempenho em relação a chips de IA de uso geral, como as GPUs projetadas pela Nvidia.
NVIDIA EM MOVIMENTO
Como a OpenAI deixou claras suas reservas em relação à tecnologia da Nvidia, a Nvidia abordou empresas que trabalham com chips com grande quantidade de SRAM, incluindo a Cerebras e a Groq, sobre uma possível aquisição, disseram as fontes. A Cerebras recusou e fechou um acordo comercial com a OpenAI, anunciado no mês passado. A Cerebras não quis comentar.
Segundo pessoas familiarizadas com as discussões, a Groq manteve conversas com a OpenAI para um acordo de fornecimento de poder computacional e recebeu interesse de investidores para financiar a empresa, que foi avaliada em cerca de US$ 14 bilhões. A Groq se recusou a comentar.
Mas, em dezembro, a Nvidia decidiu licenciar a tecnologia da Groq em um acordo não exclusivo, totalmente em dinheiro, segundo as fontes. Embora o acordo permita que outras empresas licenciem a tecnologia da Groq, a empresa agora está focada na venda de software baseado em nuvem, já que a Nvidia contratou os projetistas de chips da Groq.