
O Google passou mais de uma década construindo silenciosamente a tecnologia que agora o ajuda a ter um desempenho muito acima da média na guerra da IA.
Enquanto a Nvidia ocupa o topo da cadeia alimentar, vendendo suas GPUs para praticamente todas as grandes empresas de tecnologia do planeta, o Google tem se dedicado a projetar suas próprias armas; chips que nunca teve a intenção de vender, mas que utiliza para alimentar tudo o que está por trás de sua infraestrutura de IA.
E agora, com a demanda por computação em níveis recordes, esse silício desenvolvido internamente está finalmente mostrando seu valor.
Na quinta-feira, o Google confirmou que o Ironwood, a mais recente geração de sua Unidade de Processamento Tensorial (TPU), estará disponível nas próximas semanas. Trata-se do chip de sétima geração da empresa, projetado para lidar com tudo, desde o treinamento de modelos complexos até a execução de agentes de IA e chatbots em tempo real.
Segundo o Google, o Ironwood é mais de quatro vezes mais rápido que a TPU anterior. Um cliente, a Anthropic, planeja implantar até 1 milhão deles para alimentar seu modelo Claude.
Embora o Google continue a estocar GPUs da Nvidia, ele não está simplesmente dependendo de chips de terceiros. As TPUs estão em desenvolvimento há mais de dez anos e foram disponibilizadas aos clientes de nuvem pela primeira vez em 2018.
Originalmente utilizadas apenas para cargas de trabalho internas, agora são parte central da infraestrutura de IA da nuvem pública do Google.
A analista Stacy Rasgon, da Bernstein, afirmou: "Dos fabricantes de ASICs, o Google é o único que realmente implantou essa tecnologia em grande escala."
Atualmente, o Google não vende TPUs como hardware físico. Em vez disso, os clientes alugam o acesso por meio do Google Cloud, que se tornou uma das maiores fontes de receita da empresa.
No último trimestre, a Alphabet reportou uma receita de US$ 15,15 bilhões em serviços de nuvem, um aumento de 34% em relação ao ano anterior. Sundar Pichai, CEO da empresa, declarou aos investidores: "Estamos observando uma demanda substancial por nossos produtos de infraestrutura de IA, incluindo soluções baseadas em TPU e GPU."
Com a crescente pressão no setor de tecnologia para obter acesso a poder computacional, o Google está firmando parcerias gigantescas. No mês passado, a empresa expandiu sua parceria com a Anthropic em um acordo que, segundo relatos, vale dezenas de bilhões de dólares.
Esse acordo dará à Anthropic acesso a mais de um gigawatt de capacidade computacional de IA até 2026.
O Google já investiu US$ 3 bilhões na Anthropic. Embora a Amazon continue sendo a principal parceira de nuvem da empresa, o Google agora fornece a infraestrutura principal para os futuros modelos Claude. O diretor de produtos da Anthropic, Mike Krieger, afirmou:
“Há tanta procura pelos nossos modelos que acredito que a única maneira de termos conseguido atender a todos os pedidos deste ano seria com essa estratégia de múltiplos chips.”
Essa estratégia inclui TPUs, Trainium e GPUs da Nvidia, e foi desenvolvida para oferecer desempenho, custo e backup. Krieger acrescentou que sua equipe realizou um trabalho preparatório inicial para garantir que o Claude pudesse ser executado sem problemas em todos os principais tipos de chips.
“Agora que podemos operar esses enormes centros de dados e atender os clientes onde eles estão, já vi esse investimento dar frutos”, disse ele.
trac de nuvem de seis anos, avaliado em mais de US$ 10 bilhões, com a Meta . A empresa também adquiriu uma parte dos negócios da OpenAI, diversificando sua atuação para além da Microsoft. A OpenAI confirmou à Reuters que está utilizando o Google Cloud, mas não está implantando GPUs na plataforma.
Esta semana, o Google revelou um novo projeto chamado Suncatcher, com o objetivo de lançar satélites movidos a energia solar equipados com TPUs (Unidades de Processamento de Turing). A meta é construir um sistema que aproveite a energia solar no espaço para alimentar tarefas de IA (Inteligência Artificial) que exigem alto poder computacional.
A empresa afirmou que planeja lançar dois protótipos até o início de 2027, descrevendo o experimento como uma forma de minimizar a pressão sobre os recursos da Terra enquanto se prepara para a computação em larga escala em órbita.
Anat Ashkenazi, diretora financeira da Alphabet, afirmou que o sucesso da empresa controladora do Google vem da enorme demanda corporativa por seu conjunto completo de soluções de IA, incluindo TPUs e GPUs.
A Alphabet agora informa que assinou maistracde nuvem bilionários nos primeiros nove meses de 2025 do que nos dois anos anteriores juntos.
Enquanto isso, a unidade de nuvem da Amazon cresceu 20% no último trimestre. O CEO da AWS, Matt Garman, afirmou: "Todos os chips Trainium 2 que instalamos em nossos data centers hoje estão sendo vendidos e utilizados". Ele acrescentou que o Trainium 3 trará ganhos ainda maiores em desempenho e eficiência energética.
Ainda assim, o Google está investindo pesado. A empresa elevou sua previsão de gastos de capital para 2025 para US$ 93 bilhões, ante os US$ 85 bilhões anteriores, com ainda mais investimentos planejados para 2026. Suas ações subiram 38% no terceiro trimestre e mais 17% no quarto trimestre, seutrondesempenho em duas décadas.
Analistas da Mizuho destacaram a vantagem de custo e desempenho das TPUs, observando que, embora originalmente destinadas ao uso interno, o Google agora está conquistando trac externos. O Morgan Stanley também afirmou , em um relatório de junho, que a familiaridade dos desenvolvedores com as TPUs pode impulsionar significativamente o crescimento do Google Cloud.
E em um relatório de setembro, analistas da DA Davidson escreveram: "Continuamos acreditando que as TPUs do Google permanecem a melhor alternativa à Nvidia, com a diferença entre as duas diminuindo significativamente nos últimos 9 a 12 meses."
Eles também mencionaram o crescente sentimento positivo entre os desenvolvedores e sugeriram que o Google poderia até começar a vender sistemas TPU diretamente para laboratórios de IA.
Se você está lendo isso, já está na frente. Acompanhe nossa newsletter .