
A Microsoft está pedindo a um tribunal dos EUA que bloqueie a decisão do Pentágono de classificar temporariamente a empresa de inteligência artificial Anthropic como um risco para sua cadeia de suprimentos. A gigante da tecnologia afirma que tal medida poderia interromper o acesso das forças armadas a sistemas avançados de IA e colocar em risco bilhões de dólares investidos em empresas privadas.
A Microsoft afirmou recentemente que investirá até US$ 5 bilhões na Anthropic, e a empresa alega precisar de uma ordem judicial para evitar que contratos trac tecnologias já em uso pelo governo sofram danos imediatos.
Embora o Departamento de Defesa dos Estados Unidos afirme que precisa defender seus sistemas e operações, empresas que desenvolvem ferramentas de IA alertam que restrições abruptas podem prejudicar parcerias e colocar em risco a liderança americana em tecnologia.
A Microsoft entrou com um pedido no Tribunal Distrital dos Estados Unidos para o Distrito Norte da Califórnia, buscando uma liminar que impeça o Pentágono de aplicar sua proibição à tecnologia da Anthropic em todos ostracde defesa existentes.
Nesse documento, a Microsoft afirmou que tal ordem daria tempo para implementar uma implantação mais tranquila e evitar interrupções no uso contínuo de ferramentas de inteligência artificial pelas forças armadas. Sem a liminar, a Microsoft alertou que qualquer empresa que opere em nome do Pentágono poderia ser forçada a fazer uma transição rápida de produtos e termostracque atualmente dependem dos modelos de IA da Anthropic.
Essa mudança, segundo a empresa, pode ter ramificações para as operações do Departamento de Defesa. "Isso pode potencialmente prejudicar os militares americanos em um momento crucial", afirmou a Microsoft no documento. A Microsoft apresentou o pedido como um parecer de amicus curiae, portanto, não está diretamente envolvida.
No entanto, segundo a empresa, a decisão do tribunal teria um potencial "impacto material" nos seus negócios e no setor como um todo. O custo do financiamento também influencia a participação da empresa.
Em novembro, a Microsoft planeja investir até US$ 5 bilhões na Anthropic, uma das empresas de inteligência artificial de crescimento mais rápido dos Estados Unidos. A Microsoft já é uma grande investidora na OpenAI , uma desenvolvedora concorrente.
A controvérsia eclodiu na semana passada, quando o Pentágono proibiu formalmente a tecnologia da Anthropic de participar trac de defesa e classificou a empresa como um risco para a cadeia de suprimentos.
Tradicionalmente, esse rótulo tem sido associado a empresas ligadas a adversários estrangeiros. Taistracque trabalham com o Departamento de Defesa sob essa ordem devem certificar que os modelos de IA da Anthropic não são usados em sistemas ou serviços vinculados ao trabalho do Pentágono.
A Anthropic processou imediatamente o departamento por sua decisão, alegando que a designação era sem precedentes dent ilegal, e acusando o governo federal de crimes. A empresa afirmou que a decisão poderia prejudicar significativamente seus negócios e ameaçar contratos trac valor de centenas de milhões.
O debate gira em torno dos modelos de IA da Anthropic, chamados Claude. A empresa vinha negociando com o Pentágono sobre como a tecnologia seria usada, mas as negociações fracassaram. A Anthropic queria garantias de que seus sistemas não seriam usados para desenvolver armas totalmente autônomas ou para vigilância doméstica em massa.
À medida que a situação se desenrola nos EUA, a Anthropic planeja abrir um novo escritório em Sydney nas próximas semanas, expandindo sua presença na Austrália e Nova Zelândia. De acordo com o Índice Econômico da empresa, os dois países ocupam o quarto e o oitavo lugar globalmente em uso per capita do Claude.ai. O escritório de Sydney se tornará o quarto centro da Anthropic na região da Ásia-Pacífico.
A controvérsia também atraiu apoio para a Anthropic de toda a comunidade de inteligência artificial. Mais de 30 funcionários da OpenAI e do Google DeepMind divulgaram uma declaração apoiando o processo da Anthropic. Entre os signatários estava o cientista-chefe do DeepMind, Jeff Dean.
Na petição judicial, os pesquisadores argumentaram que a designação feita pelo governo foi um uso arbitrário do poder que poderia prejudicar o setor de IA em geral.
Eles observaram que, se o Pentágono estivesse insatisfeito com seutraccom a Anthropic, poderia simplesmente ter rescindido o contrato e escolhido outro fornecedor, em vez de rotular a empresa como uma ameaça à cadeia de suprimentos.
Os funcionários também alertaram que a medida poderia prejudicar a competitividade dos EUA em inteligência artificial, ao desencorajar a discussão aberta sobre os riscos e limitações da tecnologia.
Pouco depois do Pentágono anunciar a designação, o Departamento de Defesa assinou um acordo com a OpenAI, um desenvolvimento que, segundo relatos, gerou protestos de alguns funcionários da OpenAI.
As mentes mais brilhantes do mundo das criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas .