
Por Deepa Seetharaman, David Jeans y Jeffrey Dastin
WASHINGTON/SAN FRANCISCO, 30 ene (Reuters) - El Pentágono está en desacuerdo con el desarrollador de inteligencia artificial Anthropic sobre las salvaguardias que impedirían al gobierno desplegar su tecnología para apuntar armas de forma autónoma y llevar a cabo la vigilancia doméstica de EE.UU., tres personas familiarizadas con el asunto dijeron a Reuters.
Las conversaciones representan una primera prueba de si Silicon Valley, que goza de la simpatía de Washington tras años de tensiones, puede influir en el modo en que el ejército y los servicios de inteligencia estadounidenses despliegan una inteligencia artificial cada vez más potente en el campo de batalla.
Después de extensas conversaciones en el marco de un contrato por valor de hasta 200 millones de dólares (link), el Departamento de Defensa de EE.UU. y Anthropic se encuentran en un punto muerto, dijeron seis personas familiarizadas con el asunto, bajo condición de anonimato.
La posición de la compañía sobre cómo se pueden utilizar sus herramientas de IA ha intensificado los desacuerdos entre ella y la administración Trump, cuyos detalles no se han informado previamente.
Un portavoz del Departamento de Defensa, que la administración Trump rebautizó como Departamento de Guerra, no respondió de inmediato a las solicitudes de comentarios.
Anthropic dijo que su IA es "ampliamente utilizada para misiones de seguridad nacional por el gobierno de Estados Unidos y estamos en conversaciones productivas con el Departamento de Guerra sobre las formas de continuar ese trabajo."
La disputa, que podría amenazar el negocio de Anthropic en el Pentágono, llega en un momento delicado para la empresa.
La empresa, con sede en San Francisco, se prepara para una eventual oferta pública de venta. También ha dedicado importantes recursos a cortejar a las empresas de seguridad nacional de EE.UU. y ha tratado de desempeñar un papel activo en la configuración de la política gubernamental en materia de IA.
Anthropic es uno de los pocos grandes desarrolladores de IA a los que el Pentágono adjudicó contratos el año pasado. Otros fueron Google GOOGL.O de Alphabet, xAI de Elon Musk y OpenAI.
SELECCIÓN DE ARMAS
En sus conversaciones con funcionarios del gobierno, los representantes de Anthropic plantearon la preocupación de que sus herramientas pudieran usarse para espiar a los estadounidenses o ayudar a apuntar armas sin suficiente supervisión humana, dijeron algunas de las fuentes a Reuters.
El Pentágono se ha erizado ante las directrices de la empresa. En línea con un memorando del departamento del 9 de enero sobre la estrategia de IA, los funcionarios del Pentágono han argumentado que deberían poder desplegar tecnología comercial de IA independientemente de las políticas de uso de las empresas, siempre y cuando cumplan con la legislación estadounidense, dijeron las fuentes.
Aun así, es probable que los funcionarios del Pentágono necesiten la cooperación de Anthropic en el futuro. Sus modelos están entrenados para evitar dar pasos que puedan resultar perjudiciales, y el personal de Anthropic sería el encargado de retocar su IA para el Pentágono, según algunas de las fuentes.
La cautela de Anthropic ha provocado conflictos con la administración Trump anteriormente, Semafor ha (link) informó (link).
En un ensayo en su blog personal, el CEO de Anthropic, Dario Amodei, advirtió esta semana que la IA debería apoyar la defensa nacional "en todos los sentidos excepto en aquellos que nos harían más parecidos a nuestros adversarios autocráticos."
Amodei fue uno de los cofundadores de Anthropic que criticó los tiroteos mortales contra ciudadanos estadounidenses que protestaban contra las medidas de control de la inmigración en Minneapolis, que describió como un "horror" en un post en X. (link)
Las muertes han agravado la preocupación de algunos en Silicon Valley por el uso gubernamental de sus herramientas con fines potencialmente violentos.