
Por Stephen Nellis
San Francisco, 26 Fev (Reuters) - A Nvidia NVDA.O pode ter feito sua imensa fortuna graças às unidades de processamento gráfico especializadas (GPUs) utilizadas para alimentar servidores de inteligência artificial, mas o presidente-executivo Jensen Huang está cada vez mais declarando seu apreço pela CPU, que é mais generalista.
A CPU, ou unidade central de processamento, foi tradicionalmente vista durante décadas como o cérebro principal de um computador - um produto mais associado à Intel INTC.O ou, por vezes, à Advanced Micro Devices AMD.O.
Huang gosta de dizer que, enquanto antes 90% dos cálculos eram feitos em CPUs e 10% em chips como o dele, essa proporção se inverteu nos últimos anos.
Mas a CPU está agora a regressar - sendo cada vez mais vista como uma opção equivalente, senão melhor, à medida que as empresas de IA passam do treino dos seus modelos para a sua implementação - uma mudança da qual a Nvidia planeia desempenhar um papel importante.
"Nós adoramos CPUs tanto quanto GPUs", disse Huang em uma teleconferência com analistas na quarta-feira sobre os resultados do quarto trimestre da empresa. (link).
Ele garantiu-lhes que a Nvidia não só estava preparada para o retorno das CPUs aos holofotes, como também que as próprias ofertas de CPUs da Nvidia para data centers, lançadas inicialmente em 2023 (link) superariam os rivais.
No mês passado, durante a Consumer Electronics Show em Las Vegas, em janeiro, Huang também afirmou que o número de CPUs de alto desempenho da Nvidia utilizadas em data centers iria explodir e que não ficaria surpreso "se a Nvidia se tornasse uma das maiores fabricantes de CPUs do mundo".
A CPU versus a GPU
CPUs e GPUs têm desempenhado funções computacionais distintas há décadas. As CPUs são chips generalistas projetados para lidar com qualquer tarefa matemática que um programador de software possa atribuir ao chip a uma velocidade razoável, considerando a variedade de trabalho.
As GPUs, por outro lado, especializam-se em executar um conjunto mais simples de tarefas matemáticas, realizando esses cálculos simples em paralelo milhares de vezes simultaneamente.
Nos videogames, isso significava calcular o valor de milhares de pixels em uma tela muitas vezes por segundo, e no trabalho com IA, significa multiplicar e somar grandes matrizes de números que os desenvolvedores usam para representar dados do mundo real, como palavras e imagens.
As empresas de IA estão implantando cada vez mais "agentes" que podem realizar tarefas de forma independente, como escrever código, analisar documentos e redigir relatórios de pesquisa – e esse tipo de computação "está acontecendo cada vez mais, e às vezes principalmente, na CPU", disse Ben Bajarin, analista da Creative Strategies.
O atual servidor de IA topo de linha da Nvidia — chamado NVL72 — contém 36 CPUs e 72 GPUs. Bajarin acredita que essa proporção pode mudar para 1 para o chamado trabalho "agente" ou até mesmo que a GPU possa ser dispensada por completo.
NVIDIA QUER PROVAR UM PONTO
Reforçando suas ambições no mercado de CPUs, a Nvidia anunciou recentemente um acordo com a Meta META.O que permitirá à empresa proprietária do Facebook utilizar grandes volumes de seus chips Grace e Vera (link) de forma independente. Isso é um desenvolvimento relativamente novo em comparação com os servidores de IA atuais da Nvidia, onde cada CPU é acompanhada por várias GPUs.
Embora a Meta não tenha trocado de fornecedores de CPUs, ela está apenas garantindo mais fornecedores. Dias depois, a AMD também anunciou um grande acordo com a Meta (link) que também incluía suas CPUs, que a Meta vem comprando há anos.
Na teleconferência com analistas, Huang argumentou que a Nvidia havia adotado uma abordagem fundamentalmente diferente em relação às CPUs.
Ele explicou por que a Nvidia optou por não dividir os chips em partes menores, uma abordagem utilizada pela Intel e pela AMD, afirmando que a CPU da Nvidia era capaz de executar várias tarefas simples em sequência, com bom acesso a uma grande quantidade de memória do computador.
"Ele foi projetado para ter foco em altíssimas capacidades de processamento de dados", disse Huang durante a chamada. "E o motivo disso é que a maioria dos problemas de computação que nos interessam são orientados por dados — a inteligência artificial sendo um deles."
Dave Altavilla, analista principal da HotTech Vision and Analysis, afirmou que a Nvidia pretende provar que o tipo de CPU antes fornecido principalmente pela Intel "não é mais a base padrão da infraestrutura de computação moderna. Em vez disso, torna-se apenas uma opção arquitetônica entre várias."
Huang afirmou que a Nvidia terá mais informações a revelar sobre suas CPUs na conferência anual de desenvolvedores da empresa, no Vale do Silício, no próximo mês.