
Por Deepa Seetharaman e David Jeans e Jeffrey Dastin
WASHINGTON/SÃO FRANCISCO, 29 Jan (Reuters) - O Pentágono e a empresa de desenvolvimento de inteligência artificial Anthropic estão em desacordo sobre a possível eliminação de salvaguardas que poderiam permitir ao governo usar sua tecnologia para direcionar armas de forma autônoma a alvos e realizar vigilância doméstica nos EUA, disseram à Reuters três pessoas familiarizadas com o assunto.
As discussões representam um teste inicial para verificar se o Vale do Silício – que goza das boas relações com Washington após anos de tensões – pode influenciar a forma como as forças armadas e os serviços de inteligência dos EUA utilizam inteligência artificial cada vez mais poderosa no campo de batalha.
Após semanas de negociações sob um contrato avaliado em até 200 milhões de dólares (link), o Departamento de Defesa dos EUA e a Anthropic estão em impasse, disseram seis pessoas familiarizadas com o assunto, sob condição de anonimato. A posição da empresa sobre como suas ferramentas de IA podem ser usadas intensificou os desentendimentos entre ela e o governo Trump, cujos detalhes não haviam sido divulgados anteriormente.
De acordo com um memorando do Departamento de Defesa de 9 de janeiro sobre sua estratégia de IA, autoridades do Pentágono argumentaram que deveriam poder implantar tecnologia comercial de IA independentemente das políticas de uso das empresas, desde que cumpram a legislação dos EUA, disseram as fontes.
Um porta-voz do departamento, que o governo Trump renomeou como Departamento de Guerra, não respondeu imediatamente aos pedidos de comentários.
Em comunicado, a Anthropic afirmou que sua IA é "amplamente utilizada em missões de segurança nacional pelo governo dos EUA e estamos em discussões produtivas com o Departamento de Guerra sobre maneiras de dar continuidade a esse trabalho".
A Anthropic é um dos poucos principais desenvolvedores de IA que receberam contratos do Pentágono no ano passado. Outros eram Google da Alphabet GOOGL.O, xAI de Elon Musk e OpenAI.
A Anthropic sempre se concentrou na segurança nacional dos EUA, ao mesmo tempo que seus executivos buscaram definir o uso responsável. Isso gerou conflitos com o governo Trump, conforme anteriormente (link) relatado pelo Semafor (link) .
Em um ensaio publicado esta semana em seu blog pessoal, o presidente-executivo da Anthropic, Dario Amodei, alertou que a IA deve apoiar a defesa nacional "em todos os aspectos, exceto naqueles que nos tornariam mais parecidos com nossos adversários autocráticos".
Amodei estava entre os cofundadores da Anthropic que criticaram os tiroteios fatais contra cidadãos norte-americanos que protestavam contra as ações de fiscalização da imigração em Minneapolis, que ele descreveu como um "horror". em uma postagem sobre X. (link) As mortes agravaram a preocupação de alguns no Vale do Silício sobre o uso que o governo faz dessas ferramentas para fins potencialmente violentos.