tradingkey.logo

A Anthropic destina US$ 20 milhões para as eleições de meio de mandato a fim de defender as leis estaduais sobre inteligência artificial

Cryptopolitan12 de fev de 2026 às 16:14

A batalha entre as empresas de inteligência artificial saltou do mundo da tecnologia diretamente para a política americana. A Anthropologie anunciou na quinta-feira que investirá US$ 20 milhões nas eleições deste ano.

O dinheiro será destinado à Public First Action, um grupo recém-formado que defende que os estados mantenham o poder de definir as regras da IA. Isso coloca a Anthropic em rota de colisão tanto com a atuação política da OpenAI quanto com a Casa Branca de Trump, que deseja que Washington assuma o controle da política de IA em todo o país.

“As empresas que desenvolvem IA têm a responsabilidade de ajudar a garantir que a tecnologia sirva ao bem público, e não apenas aos seus próprios interesses”, disse no anúncio de quinta-feira.

O grupo está apoiando candidatos que se opõem às iniciativas para retirar dos estados a autoridade sobre a tecnologia de IA. Uma das primeiras beneficiárias é Marsha Blackburn, a republicana que concorre ao governo do Tennessee e lutou contra projetos de lei federais que teriam impedido as legislaturas estaduais de aprovarem suas próprias leis sobre IA.

A Public First Action enfrenta grandes dificuldades contra a Leading the Future, o grupo rival apoiado pelodent da OpenAI, Greg Brockman, e pelo investidor em tecnologia Marc Andreessen. Essa iniciativa arrecadou US$ 125 milhões desde seu lançamento em agosto de 2025. A A16Z, empresa de capital de risco de Andreessen, detém uma participação na OpenAI, o que torna a disputa por financiamento ainda mais pessoal entre os desenvolvedores de IA rivais.

A ordem executiva de Trump, emitida em dezembro, intensifica a batalha

Em dezembro, odent Trump assinou uma ordem que ameaça diretamente as leis estaduais que a Anthropic busca proteger. A diretiva instrui as agências federais a criarem uma estrutura nacional de IA com regras mínimas e, em seguida, usá-la para sobrepor-se a regulamentações estaduais mais rigorosas.

A ordem de Trump vai além, criando uma força-tarefa do Departamento de Justiça especificamente destinada a contestar judicialmente as leis estaduais de IA. Estados com regras que Trump considera muito rígidas podem perder financiamento federal. Seu conselheiro para IA, David Sacks, já apontou a lei do Colorado como "provavelmente a mais excessiva" em vigor.

Diversos estados têm regulamentações entrando em vigor ou tramitando em suas assembleias legislativas em 2026. O Colorado adiou sua Lei de IA para 30 de junho de 2026, após sofrer pressão, mas a lei ainda exigirá que as empresas que desenvolvem sistemas de IA de "alto risco" evitem a discriminação em seus algoritmos. A Califórnia aprovou sete leis de IA em 2025, com sua Lei de Transparência em IA de Fronteira entrando em vigor em 1º de janeiro de 2026. O Texas proibiu o uso de IA para certos fins por meio de sua Lei de Governança Responsável de IA.

Cryptopolitan noticiou anteriormente que a Anthropic levantou US$ 2 bilhões no ano passado, atingindo uma avaliação de US$ 60 bilhões, seguida por um investimento maciço de US$ 15 bilhões da Microsoft e da Nvidia, o que elevou seu valor para cerca de US$ 350 bilhões. Esses investidores agora têm bilhões em jogo, dependendo de como a IA será regulamentada.

Uma profunda divisão ideológica impulsiona a guerra de gastos

A postagem no blog da empresa na quinta-feira fez uma crítica velada à OpenAI sem mencioná-la diretamente, alertando que "vastos recursos foram destinados a organizações políticas que se opõem" aos esforços para tornar a IA mais segura.

 Se os candidatos apoiados pela Public First Action conquistarem cadeiras suficientes, poderão bloquear projetos de lei federais de preempção no Congresso. Isso manteria a abordagem estado por estado em vigor, pelo menos temporariamente.

A rivalidade entre a Anthropic e a OpenAI vai muito além dos níveis de financiamento. Fundada pelos irmãos Dario e Daniela Amodei, após deixarem a OpenAI devido a preocupações com a segurança, a Anthropic construiu toda a suadentem torno da ideia de tornar a tecnologia de IA menos arriscada. A OpenAI e seus apoiadores preferem regras mais flexíveis que permitam que a inovação avance mais rapidamente.

Essa divergência filosófica agora se reflete nas contribuições para campanhas eleitorais e no lobby. A OpenAI pediu a Trump que bloqueasse as regulamentações estaduais sobre IA em troca de acesso governamental aos seus modelos no início deste ano. A empresa argumentou que a fragmentação das leis estaduais prejudicaria a liderança dos Estados Unidos em IA.

Mas as probabilidades parecem desfavoráveis. A vantagem de financiamento de seis para um da Leading the Future dá à OpenAI mais dinheiro para gastar em anúncios, pessoal e operações de campo. A ordem executiva de Trump também concede às agências federais ferramentas para contestar leis estaduais imediatamente, sem esperar pelo Congresso.

A disputa revela uma divisão mais profunda no Vale do Silício sobre o nível de supervisão que a IA deve enfrentar. Empresas como a Anthropic, fundada por ex-funcionários da OpenAI que deixaram a empresa devido a divergências sobre segurança, geralmente defendem regrastronrígidas para evitar que a IA cause danos. A OpenAI e seus apoiadores preferem uma regulamentação mais branda que permita que a inovação avance mais rapidamente.

Os eleitores dos estados que aprovaram leis sobre IA poderão, essencialmente, escolher a visão que preferem ao votarem neste outono. Sua decisão poderá determinar se o desenvolvimento da IA ocorrerá sob um conjunto fragmentado de regras estaduais ou sob um sistema federal uniforme com menos restrições.

Dê visibilidade onde realmente importa. Anuncie na Cryptopolitan Research e alcance os investidores e desenvolvedores mais antenados do mercado de criptomoedas.

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.
KeyAI