Por Stephen Nellis e Max A. Cherney
SAN JOSÉ, Califórnia, 16 Mar (Reuters) - A Nvidia NVDA.O afirmou que a oportunidade de receita para seus chips de inteligência artificial pode atingir pelo menos US$ 1 trilhão até 2027, ao delinear uma estratégia para competir de forma mais agressiva no mercado em rápido crescimento de sistemas de IA em tempo real.
Em sua conferência anual para desenvolvedores, a GTC, em San Jose, Califórnia, a Nvidia apresentou um novo processador central e um sistema de IA baseado na tecnologia da startup Groq - parte do esforço do presidente-executivo Jensen Huang para fortalecer a posição da empresa na chamada computação inferencial.
A inferência representa uma concorrência maior para a Nvidia, inclusive de processadores personalizados construídos por clientes como a Meta Platforms (meta.O), mesmo que ela domine o mercado de chips usados para treinar IA com seus processadores gráficos.
"Chegou a hora da inferência", disse Huang.
Ele discursava em uma arena de hóquei com capacidade para mais de 18.000 pessoas, durante a conferência de quatro dias que se tornou uma das maiores vitrines da tecnologia de IA. "Só quero lembrar a vocês que esta é uma conferência de tecnologia", disse ele à plateia.
As ações da Nvidia - a empresa de capital aberto mais valiosa do mundo, com um valor de mercado superior a US$ 4,3 trilhões - subiram brevemente com a previsão de US$ 1 trilhão, mas reduziram os ganhos e fecharam em alta de 1,6%.
Huang não ofereceu mais detalhes sobre essa previsão. Mas ela representa um grande avanço em relação à oportunidade de receita de cerca de US$ 500 bilhões para 2026, que a Nvidia reiterou em sua última teleconferência de resultados.
" O esboço de Huang, que prevê uma oportunidade de US$ 1 trilhão até 2027, reforça a demanda duradoura pela infraestrutura de IA da Nvidia, apesar das preocupações dos investidores", disse Jacob Bourne, analista da Emarketer.
"Isso demonstra que a Nvidia está mantendo sua liderança no mercado de chips de IA, enquanto o setor de IA como um todo se expande, deixando para trás a fase inicial de experimentação e entrando em implantação em larga escala."
Huang afirmou que a inferência, processo pelo qual os sistemas de IA respondem a perguntas ou executam tarefas, será dividida em duas etapas. Os chips Vera Rubin da Nvidia cuidarão da primeira etapa, chamada de "pré-preenchimento", na qual a solicitação do usuário é transformada de palavras humanas para a linguagem de "tokens" que os computadores de IA utilizam.
Os novos chips da Groq realizarão uma segunda etapa de "decodificação", na qual o computador com inteligência artificial fornecerá a resposta que o usuário procura.
CHIPS DE IA MUITO PROCURADOS
Groq, uma startup de chips (link) da qual a Nvidia licenciou tecnologia por US$ 17 bilhões em dezembro, é especializada em computação de "inferência" rápida e barata, na qual um modelo de IA utiliza o que já aprendeu para responder a uma pergunta ou fazer uma previsão em tempo real.
Após gastar centenas de bilhões de dólares nos últimos anos em chips para treinar seus modelos de IA, empresas como OpenAI, Anthropic e Meta Platforms (meta.O), proprietária do Facebook, estão se voltando para atender centenas de milhões de usuários que utilizam esses sistemas de IA.
A palestra principal também tratou de um chip de IA de última geração chamado Feynman (link), que recebeu o nome em homenagem ao falecido físico norte-americano Richard Feynman.
Huang também fez o argumento de que parte da vantagem competitiva da Nvidia residia em seu software de programação de chips CUDA, considerado por alguns analistas como seu maior trunfo.
"A base instalada é o que atrai os desenvolvedores que, por sua vez, criam os "novos algoritmos que alcançam tecnologias inovadoras", disse Huang. "Estamos em todas as nuvens. Estamos em todas as empresas de informática. Atendemos praticamente todos os setores."
Os analistas também esperam que a Nvidia explique detalhadamente por que investiu US$ 2 bilhões em cada uma das empresas Lumentum e Coherent (link), ambas as quais fabricam lasers para enviar informações entre chips na forma de feixes de luz.
Apesar do aumento da concorrência (link), parte da qual provém dos próprios clientes da Nvidia (link) projetando seus próprios chips (link), a Nvidia continua sendo fundamental para o ecossistema global de IA.
Nações como a Arábia Saudita estão construindo sistemas de IA personalizados para suas próprias populações usando seus chips, e a empresa é uma das poucas grandes empresas norte-americanas que continua lançando software de IA de código aberto (link), um campo de crescente competição entre os EUA e a China (link).