A OpenAI não está gastando US$ 100 bilhões para comprar chips, mas sim pagando cash para alugá-los. Todo o acordo com a Nvidia se baseia na distribuição de custos ao longo do tempo, e não no pagamento antecipado de bilhões. A empresa de inteligência artificial quer acessar as GPUs de ponta da Nvidia, mas, em vez de comprá-las diretamente, está se fixando em contratos de arrendamento de longo prazo.
Dessa forma, o dinheiro sai lentamente e o risco é transferido para a Nvidia. O acordo é simples. À medida que cada novo data center de IA entra em operação, a OpenAI obtém acesso a mais GPUs. O primeiro data center, que está sendo construído em Abilene, Texas, deve entrar em operação no segundo semestre de 2026.
É aí que o cash começa a fluir. O preço exato de cada centro ainda é desconhecido, mas a OpenAI não está assumindo a propriedade do hardware. Ela está alugando a computação. Cada GPU implantada será alugada, com pagamentos distribuídos ao longo de sua vida útil, em torno de cinco anos.
Jensen Huang, CEO da Nvidia, descreveu o acordo como "monumental em tamanho". Ele disse que construir um data center de IA de um gigawatt poderia custar cerca de US$ 50 bilhões. Desse total, cerca de US$ 35 bilhões vão diretamente para a Nvidia para seus chips. O restante é para todo o resto. Mas a OpenAI não está pagando isso adiantado. Ao alugar as GPUs, a empresa evita sofrer um prejuízo financeiro de uma só vez.
A OpenAI receberá em breve US$ 10 bilhões iniciais do acordo. Esse dinheiro ajuda a dar início à primeira onda de implantação. E embora parte dos fundos seja usada para contratações, operações e outras despesas, a maior parte irá diretamente para a computação. Mais especificamente, para os processadores da Nvidia. Essas GPUs são os motores por trás do treinamento de IA, alimentando modelos como o ChatGPT e tudo o que é executado neles.
Sarah Friar, diretora financeira da OpenAI, disse em Abilene que o plano não seria possível sem parceiros. Ela destacou a Oracle, que está alugando o data center de Abilene, e a Nvidia , que está fornecendo capital inicial em troca de pagamentos de longo prazo.
“Pessoas como a Oracle estão colocando seus balanços em prática para criar esses data centers incríveis que vocês veem atrás de nós”, disse Sarah. “No caso da Nvidia, eles estão reunindo capital para dar o pontapé inicial, mas, o mais importante, eles receberão por todos esses chips à medida que forem implantados.”
A OpenAI não é lucrativa. Não tem fluxo cash positivo e não possui crédito com grau de investimento. É por isso que financiar data centers por meio de capital próprio é caro. Executivos da empresa disseram que estão se preparando para assumir dívidas para lidar com o restante da expansão. E, graças à estrutura de leasing com a Nvidia, os bancos estão mais confortáveis em emprestar. As condições parecem melhores quando uma empresa não está tentando comprar tudo de uma vez.
Sarah disse que a escassez de computação é o maior problema. "Acho que todos nós deveríamos estar focados hoje no fato de que não há computação suficiente", disse ela. "À medida que o negócio cresce, seremos mais do que capazes de pagar pelo que nos aguarda no futuro — mais computação, mais receita."
Mas nem todos estão entusiasmados com a forma como isso está estruturado. O valor de mercado de US$ 4,3 trilhões da Nvidia foi construído com a venda de chips para OpenAI, Google, Meta, Microsoft e Amazon. Ao mesmo tempo, a avaliação privada de US$ 500 bilhões da OpenAI só é possível graças a injeções cash da Microsoft e de outras empresas. Esse dinheiro não fica parado. Ele volta direto para a Nvidia.
Jamie Zakalik, analista da Neuberger Berman, disse à CNBC que o acordo mostra a OpenAI levantando capital e aplicando-o diretamente na mesma empresa que fornece a tecnologia. "Está aumentando os lucros e os números de todos", disse Jamie. "Mas, na verdade, não está criando nada."
Questionado sobre essas preocupações, o CEO da OpenAI, Sam Altman, não se opôs. "Precisamos continuar vendendo serviços para consumidores e empresas — e construindo esses novos e excelentes produtos pelos quais as pessoas nos pagam muito", disse Sam. "Enquanto isso continuar acontecendo, pagaremos por muitos desses data centers, muitos chips."
Se você está lendo isso, já está na frente. Acompanhe nossa newsletter .