
As ações da Qualcomm subiram 23% na segunda-feira, depois que a empresa anunciou que está lançando novos chips aceleradores de IA para enfrentar a Nvidia e a AMD na guerra de chips mais cara até hoje.
O anúncio, feito em 27 de outubro, foi a declaração mais impactante da empresa até o momento de que ela está entrando na corrida armamentista dos data centers.
Os dois novos chips (AI200, com lançamento previsto para 2026, e AI250, com lançamento previsto para 2027) não estarão em smartphones. Eles alimentarão racks inteiros refrigerados a líquido dentro de enormes fazendas de servidores de IA.
Segundo a CNBC, esses novos chips representam um grande avanço em relação à zona de conforto habitual da Qualcomm, que inclui dispositivos móveis e sem fio. Ambos os aceleradores podem preencher um rack completo, como os sistemas atuais da Nvidia e da AMD, que permitem que 72 chips operem como um só.
A ideia é dar aos laboratórios de IA e hiperescaladores a potência necessária para executar modelos massivos de IA, sem precisar da cadeia de suprimentos da Nvidia ou da segunda posição da AMD.
O AI200 e o AI250 são construídos usando a mesma tecnologia dos chips de telefone da Qualcomm, chamadas unidades de processamento neural Hexagon (NPUs).
Durga Malladi, gerente geral de data center e edge da empresa, disse aos repórteres na semana passada: "Primeiro queríamos nos provar em outros domínios e, depois que construímos nossa força lá, foi muito fácil subirmos um degrau para o nível de data center."
Esses racks são projetados para inferência, não para treinamento. Isso significa que a Qualcomm não está tentando construir chips que ajudem a treinar modelos como os GPTs da OpenAI, que foram treinados em GPUs da Nvidia.
Em vez disso, o foco está em executar esses modelos de forma mais rápida e econômica depois de treinados. É aí que a maioria das cargas de trabalho do mundo real acontece.
E tem dinheiro aqui... dinheiro de verdade. A McKinsey prevê que o mundo gastará US$ 6,7 trilhões em data centers até 2030, e a maior parte será destinada a hardware de IA. A Nvidia controla mais de 90% desse mercado hoje e tem uma capitalização de mercado de mais de US$ 4,5 trilhões. Mas os clientes estão ficando inquietos.
A OpenAI anunciou recentemente que está comprando chips da AMD e pode até comprar uma parte da empresa. Google, Amazon e Microsoft estão projetando seus próprios aceleradores de IA. Todos querem uma opção que não envolva esperar na fila atrás de uma dúzia de outros laboratórios de IA só para receber uma remessa de GPU da Nvidia.
Malladi disse que os racks consomem cerca de 160 quilowatts, o que equivale ao consumo de energia dos racks da Nvidia. Mas a Qualcomm afirma que seus sistemas são mais baratos de operar, especialmente para provedores de serviços de nuvem.
A empresa também venderá as peças separadamente, dando aos clientes a liberdade de montar racks personalizados. "O que tentamos fazer é garantir que nossos clientes tenham a opção de levar tudo ou dizer: 'Vou misturar e combinar'", acrescentou Malladi.
Até mesmo a Nvidia e a AMD podem acabar comprando partes do conjunto de processadores da Qualcomm. Isso inclui suas unidades centrais de processamento (CPUs), que, segundo Malladi, estarão disponíveis como componentes independentes. O preço total dos chips, placas e racks não foi divulgado. A Qualcomm também não confirmou quantas NPUs cabem em um rack.
No início deste ano, a Qualcomm assinou um acordo com a saudita Humain, que planeja instalar chips de inferência da Qualcomm em data centers com capacidade de até 200 megawatts de energia. O acordo tornou a Humain uma das primeiras grandes clientes dos sistemas em escala de rack.
A empresa também afirmou que suas placas de IA suportam 768 gigabytes de memória, mais do que a Nvidia ou a AMD oferecem atualmente. A empresa também alegou maior eficiência energética e custo de propriedade, embora não tenha fornecido números exatos.
Reivindique seu lugar gratuito em uma comunidade exclusiva de negociação de criptomoedas - limitada a 1.000 membros.