tradingkey.logo

A Anthropic enfrenta nova ameaça de ordem executiva enquanto se desenrola o processo judicial sobre a proibição do Pentágono

Cryptopolitan11 de mar de 2026 às 16:28

O governo Trump está elaborando uma ordem executiva contra a Anthropic, a startup de IA de São Francisco por trás do Claude, mesmo enquanto um processo federal sobre uma proibição governamental já existente contra a empresa está em andamento nos tribunais.

Fontes familiarizadas com o assunto dizem que funcionários da Casa Branca estão preparando a ordem. A medida é notável porque ocorre enquanto o processo judicial da Anthropic contra restrições governamentais anteriores ainda está pendente. A empresa entrou com a ação alegando ter sido excluída da concorrência portracde defesa.

Questionado se o governo planejava outras medidas além da ordem executiva, um funcionário da Casa Branca não negou. Ele disse ao Axios que qualquer anúncio político virá diretamente de Trump e que a discussão sobre possíveis ordens executivas é mera especulação

A disputa trac ao Secretário de Defesa Pete Hegseth, que no mês passado classificou a Anthropic como um “risco para a cadeia de suprimentos” após o fracasso das negociações contratuais trac o Pentágono. Em 27 de fevereiro, Hegseth escreveu no X: “Com efeito imediato, nenhum contratado trac fornecedor ou parceiro que faça negócios com as Forças Armadas dos Estados Unidos poderá realizar qualquer atividade comercial com a Anthropic.”

A Anthropic alega em juízo que a proibição é uma retaliação à recusa do CEO Dario Amodei em permitir que o Claude fosse usado para vigilância em massa ou como armamento autônomo.

Governo pressiona clientes da Anthropic a mudar de fornecedor, diz advogado

Os advogados da empresa afirmam que os danos já estão se manifestando. Em uma audiência de instrução na última terça-feira, o advogado Michael Mongan disse que a inclusão na lista negra está causando "danos reais e irreparáveis" à Anthropic todos os dias.

Segundo ele, os clientes estão se afastando e o governo tem entrado em contato diretamente com eles para incentivá-los a migrar para outras empresas de IA. "Temos sistemas universitários e empresas B2B que migraram para empresas de IA concorrentes", disse Mongan ao tribunal. "Os réus têm entrado em contato ativamente com nossos clientes e os pressionado a parar de trabalhar com a Anthropic e migrar para outras empresas de IA."

Documentos judiciais quantificam os prejuízos. A Anthropic gerou mais de US$ 5 bilhões em receita comercial total até o momento e investiu US$ 10 bilhões em treinamento e computação de modelos. A empresa alertou que, no mínimo, centenas de milhões de dólares em receita prevista para 2026 estão em risco. No pior cenário, o prejuízo pode chegar a vários bilhões.

Dezenas de empresas entraram em contato com a Anthropic perguntando o que a proibição significa para elas, em alguns casos questionando se podem rescindir seus contratos trac Amazon, Alphabet e Microsoft afirmaram que continuarão oferecendo o Claude aos clientes por enquanto.

Por que o resto das grandes empresas de tecnologia está observando atentamente?

A disputa vai muito além da Anthropic. Toda a cadeia de suprimentos de IA, incluindo alguns dos maiores nomes da tecnologia, está intrinsecamente ligada ao sucesso de um punhado de empresas.

A Microsoft afirmou no mês passado que 45% de sua carteira de pedidos de US$ 625 bilhões está vinculada à OpenAI. A própria OpenAI possui um contrato de US$ 300 bilhões com a Oracle. Esses dois contratos, por si só, representam cerca de dois terços dos aproximadamente US$ 800 bilhões que o HSBC estima que a OpenAI investirá em chips e data centers. O restante será destinado a empresas como Nvidia, AMD, Amazon e CoreWeave.

Os planos de gastos da Anthropic também chegam a bilhões, e o impasse no Pentágono agora levanta dúvidas sobre se esses planos podem prosseguir.

O momento é particularmente delicado, pois a Anthropic estaria planejando abrir seu capital ainda este ano. Uma longa disputa com o governo não é o cenário ideal para uma empresa que pretende realizar um IPO. Apesar de toda a preocupação, se as coisas dessem muito errado para a Anthropic, provavelmente alguém compraria a empresa antes que ela entrasse em colapso.

Reorganizações antrópicas vindas de dentro

Na quarta-feira, a Anthropic também anunciou a criação de um novo grupo de pesquisa interno, o Instituto Anthropic , formado pela fusão de três equipes já existentes. O grupo analisará como a IA avançada afeta empregos e economias, se torna o mundo mais seguro ou mais perigoso, como os valores incorporados aos sistemas de IA podem influenciar as pessoas e se os humanos podem manter um controle significativo à medida que a tecnologia se torna mais poderosa.

A notícia veio acompanhada de uma reestruturação na cúpula. Jack Clark, um dos cofundadores da empresa, está deixando o cargo de chefe de políticas públicas após mais de cinco anos e agora liderará o novo instituto com o título de chefe de benefício público. Sua substituta na área de políticas públicas é Sarah Heck, que anteriormente era chefe de relações externas.

A equipe de políticas, que triplicou de tamanho em 2025, continuará trabalhando em segurança nacional, infraestrutura de IA, energia e no que a Anthropic descreve como liderança democrática em IA.

A empresa também planeja abrir um escritório em Washington, D.C. Clark afirmou que a mudança se deve ao ritmo acelerado das transformações na área de IA. Ao analisar seu trabalho no ano passado, ele percebeu que havia dedicado mais tempo a projetos de lei, como o SB 53 da Califórnia, do que às questões de pesquisa em IA que mais lhe interessavam. Ele acredita que uma IA poderosa, o tipo que o setor costuma chamar de Inteligência Artificial Geral (AGI), estará disponível até o final de 2025 ou início de 2027.

Questionado se fazia sentido investir em pesquisa de longo prazo enquanto a receita de curto prazo da empresa estava ameaçada, Clark disse não ter preocupações. "As pessoas tendem a comprar confiança", afirmou. "A longo prazo, a Anthropic sempre considerou seu investimento em segurança, bem como o estudo e a divulgação dos dados de segurança de seus sistemas, não como um centro de custos, mas sim como um centro de lucros."

Se você está lendo isto, já está um passo à frente. Continue assim assinando nossa newsletter .

Aviso legal: as informações fornecidas neste site são apenas para fins educacionais e informativos e não devem ser consideradas consultoria financeira ou de investimento.
KeyAI