
Por David Jeans y Deepa Seetharaman
12 feb (Reuters) - El Pentágono está presionando a las principales empresas de IA, como OpenAI y Anthropic, para que sus herramientas de inteligencia artificial estén disponibles en redes clasificadas sin muchas de las restricciones estándar que las empresas aplican a los usuarios.
Durante un acto celebrado el martes en la Casa Blanca, el Director de Tecnología del Pentágono, Emil Michael, dijo a los ejecutivos de tecnología que el ejército pretende que los modelos de IA estén disponibles tanto en dominios no clasificados como clasificados, según dos personas familiarizadas con el asunto.
El Pentágono se está "moviendo para desplegar capacidades de IA de vanguardia en todos los niveles de clasificación", dijo a Reuters un funcionario que pidió el anonimato.
Es la última novedad en las negociaciones en curso entre el Pentágono y las principales empresas de IA generativa sobre cómo Estados Unidos utilizará la IA en un futuro campo de batalla que ya está dominado por enjambres de drones autónomos, robots y ciberataques.
También es probable que los comentarios de Michael intensifiquen un debate ya polémico sobre el deseo de los militares de utilizar la IA sin restricciones y la capacidad de las empresas tecnológicas para establecer límites en torno a cómo se despliegan sus herramientas. (link)
Muchas empresas de IA están creando herramientas a medida para el ejército de EE.UU., la mayoría de las cuales sólo están disponibles en redes no clasificadas utilizadas habitualmente para la administración militar. Sólo una empresa de IA -Anthropic- está disponible en entornos clasificados a través de terceros, pero el gobierno sigue sujeto a las políticas de uso de la empresa.
Las redes clasificadas se utilizan para gestionar una amplia gama de trabajos más delicados que pueden incluir la planificación de misiones o la selección de objetivos de armamento. Reuters no pudo determinar cómo o cuándo el Pentágono planea desplegar chatbots de IA en redes clasificadas.
Los militares esperan aprovechar el poder de la IA para sintetizar información que ayude a tomar decisiones. Pero aunque estas herramientas son potentes, pueden cometer errores e incluso inventar información que a primera vista podría parecer plausible. Según los investigadores de IA, estos errores en entornos clasificados podrían tener consecuencias mortales.
Las empresas de IA han tratado de minimizar las desventajas de sus productos incorporando salvaguardias a sus modelos y pidiendo a los clientes que sigan ciertas directrices. Pero los funcionarios del Pentágono han rechazado estas restricciones, argumentando que deberían poder utilizar herramientas comerciales de IA siempre que cumplan la legislación estadounidense.
Esta semana, OpenAI llegó a un acuerdo con el Pentágono para que los militares pudieran utilizar sus herramientas, entre ellas ChatGPT, en una red no clasificada llamada http://genai.mil/, que se ha extendido a más de 3 millones de empleados del Departamento de Defensa. Como parte del acuerdo, OpenAI aceptó eliminar muchas de sus restricciones típicas para los usuarios, aunque se mantienen algunas barreras.
Google, de Alphabet GOOGL.O, y xAI ya habían alcanzado acuerdos similares con anterioridad.
En un comunicado, OpenAI afirma que el acuerdo de esta semana es específico para el uso no clasificado a través de genai.mil (link). Ampliar ese acuerdo requeriría un acuerdo nuevo o modificado, dijo un portavoz.
Otras conversaciones similares entre Anthropic, rival de OpenAI, y el Pentágono han sido bastante más polémicas, según informó Reuters anteriormente (link). Los ejecutivos de Anthropic han dicho a los militares que no quieren que su tecnología se utilice para apuntar a las armas de forma autónoma y llevar a cabo la vigilancia doméstica de Estados Unidos. Los productos de Anthropic incluyen un chatbot llamado Claude.
"Anthropic se compromete a proteger el liderazgo de Estados Unidos en IA y ayudar al gobierno estadounidense a contrarrestar las amenazas extranjeras dando a nuestros combatientes acceso a las capacidades de IA más avanzadas", dijo un portavoz de Anthropic. "Claude ya se utiliza ampliamente para misiones de seguridad nacional por el gobierno de Estados Unidos y estamos en conversaciones productivas con el Departamento de Guerra sobre las formas de continuar ese trabajo."
El presidente Donald Trump ha ordenado al Departamento de Defensa que cambie su nombre por el de Departamento de Guerra (link), un cambio que requerirá la acción del Congreso.