
Por Deepa Seetharaman e Krystal Hu e Jeffrey Dastin
San Francisco, 4 Mar (Reuters) - Alguns investidores da Anthropic estão correndo contra o tempo para conter as consequências da disputa do laboratório de pesquisa em IA com o Pentágono, disseram sete pessoas familiarizadas com o assunto, por temerem que uma briga em curso possa devastar os negócios da empresa.
Nos últimos dias, o presidente-executivo Dario Amodei discutiu o assunto com alguns dos principais investidores e parceiros da Anthropic, incluindo o presidente-executivo da Amazon.com AMZN.O, Andy Jassy, duas das pessoas disseram. Empresas de capital de risco, incluindo Lightspeed e Iconiq, também entraram em contato com executivos da Anthropic, disseram duas fontes.
Segundo duas fontes, alguns investidores também estão entrando em contato com seus conhecidos no governo Trump na esperança de amenizar as tensões.
As discussões se concentram em evitar a proibição da IA da Anthropic para todos os contratados do Pentágono (link), disseram as pessoas.
A Anthropic e o Pentágono continuam algumas conversas, segundo uma das fontes. A Reuters não conseguiu apurar o teor dessas conversas. O presidente dos Estados Unidos (EUA), Donald Trump, solicitou à Anthropic que ajude o governo a eliminar gradualmente seus sistemas de IA.
O Pentágono e os investidores, incluindo a Amazon, não responderam imediatamente a um pedido de comentário.
A Anthropic e o Departamento de Defesa, que o governo Trump renomeou para Departamento de Guerra, estão em disputa há meses sobre como os militares podem usar sua tecnologia no campo de batalha. O conflito é amplamente visto como um referendo sobre o quanto de controle as empresas de IA podem ter sobre a tecnologia que desenvolveram, sistemas que esperam que transformem a educação, os serviços públicos e outros aspectos da sociedade.
O Pentágono pressionou as empresas de IA a abandonarem as linhas vermelhas em favor da observância de uma cláusula de uso totalmente legal. Mas a Anthropic se recusou a recuar na proibição de sua IA Claude para alimentar armas autônomas e a vigilância em massa dos EUA.
A Anthropic foi a primeira entre as empresas de IA do mesmo setor a trabalhar com informações confidenciais por meio de um acordo de fornecimento com a provedora de nuvem Amazon. A OpenAI afirmou na sexta-feira que também fechou um acordo confidencial com o Pentágono e que a Anthropic não deve ser considerada um risco para o departamento.
RISCOS DE FINANCIAMENTO
Durante conversas com executivos da Anthropic, os investidores reiteraram seu apoio ao laboratório de IA com sede em São Francisco, ao mesmo tempo em que expressaram o desejo de encontrar uma solução com o Pentágono, disseram as sete pessoas. Alguns investidores disseram à Reuters que estavam frustrados com o fato de o presidente-executivo Amodei ter antagonizado, em vez de cultivar, relações com os funcionários do Pentágono. "É um problema de ego e diplomacia", disse uma das pessoas informadas sobre o assunto.
Neste momento, disseram alguns investidores, Amodei não pode ser visto como cedendo à administração sem alienar um grupo central de funcionários e consumidores que se voltaram para a Anthropic por causa de sua posição.
Amodei, que não respondeu a um pedido de comentário, afirmou que a Anthropic não pode "em sã consciência atender ao pedido deles". Ao falar com investidores na noite de terça-feira, Amodei disse que a empresa "continuará trabalhando para encontrar uma solução com o DoW".
Os investidores que se posicionam nas negociações com o Pentágono estão focados em ajudar a Anthropic a evitar ser designada como um "risco na cadeia de suprimentos" pelo governo dos EUA, o que, se implementado, poderia representar um duro golpe para as vendas da startup, que estão crescendo rapidamente para clientes corporativos.
A demanda pelos produtos da Anthropic, como o chatbot Claude e o assistente de programação Claude Code, aumentou. Claude foi o aplicativo gratuito mais baixado na App Store da Apple na segunda-feira, superando o ChatGPT da OpenAI.
O secretário de Defesa, Pete Hegseth, afirmou que tal designação de risco exigiria que todos os contratados do governo parassem de usar a tecnologia da Anthropic em qualquer parte de seus negócios. A Anthropic se manifestou publicamente contra os comentários de Hegseth (link), afirmando que ele não tem autoridade estatutária para bloquear o uso de sua IA fora de contratos de defesa. O Pentágono não respondeu a um pedido de comentário sobre a alegação da Anthropic.
A Anthropic também afirmou na sexta-feira que contestaria (link) qualquer designação de risco na cadeia de suprimentos em juízo.
Ainda assim, alguns investidores temem que a disputa possa afastar potenciais clientes que procuram evitar estar na mira da administração em geral, disse uma das pessoas.
Essas preocupações surgem em um momento crítico para a startup. A Anthropic captou dezenas de bilhões de dólares com base em grandes expectativas para suas vendas corporativas, que representam cerca de 80% da receita da Anthropic (link), afirmou a startup.
O sucesso das futuras vendas de ações, incluindo sua amplamente aguardada oferta pública inicial (IPO) (link), depende da continuidade da Anthropic em construir sua receita de negócios. A Anthropic está em processo de permitir que seus funcionários vendam ações para investidores, e a empresa já declarou que ainda não há uma decisão sobre seu IPO.
A receita anual projetada da Anthropic, com base nos dados atuais, é de cerca de US$ 19 bilhões, segundo uma das fontes, um aumento em relação aos US$ 14 bilhões de algumas semanas atrás.
A pressão dos investidores surgiu quando várias agências do governo dos EUA começaram a descontinuar (link) o uso da tecnologia da Anthropic, com o Departamento de Estado mudando para a concorrente OpenAI, seguindo a ordem de Trump na sexta-feira para descartar a Anthropic nos próximos seis meses.