
Por Deepa Seetharaman, Krystal Hu y Jeffrey Dastin
SAN FRANCISCO, 4 mar (Reuters) - Algunos inversores de Anthropic se apresuran a contener las consecuencias de la disputa entre el laboratorio de investigación de IA y el Pentágono, según siete personas familiarizadas con el asunto, por temor a que una disputa en curso pueda devastar el negocio de la empresa.
En los últimos días, el CEO Dario Amodei ha discutido el asunto con algunos de los principales inversores y socios de Anthropic, incluyendo el CEO de Amazon.com AMZN.O Andy Jassy, dijeron dos de las personas. Firmas de capital riesgo como Lightspeed e Iconiq también se han puesto en contacto con directivos de Anthropic, según dos fuentes.
Algunos inversores también están llegando a sus contactos en la administración Trump con la esperanza de apaciguar las tensiones, dijeron dos fuentes.
Las conversaciones se centran en evitar la prohibición de la IA de Anthropic para todos los contratistas del Pentágono (link), dijeron las personas.
Anthropic y el Pentágono continúan algunas conversaciones mientras tanto, dijo una de las personas. Reuters no pudo determinar en qué consistían dichas conversaciones. El presidente de Estados Unidos, Donald Trump, ha pedido a Anthropic que ayude al gobierno a eliminar gradualmente sus sistemas de IA.
El Pentágono y los inversores, incluida Amazon, no respondieron de inmediato a una solicitud de comentarios.
Anthropic y el Departamento de Defensa, que la administración Trump rebautizó como Departamento de Guerra, han estado en una disputa de meses sobre cómo los militares pueden usar su tecnología en el campo de batalla. El enfrentamiento es ampliamente visto como un referéndum sobre cuánto control pueden tener las compañías de IA sobre la tecnología que han construido, sistemas que esperan puedan transformar la educación, los servicios públicos y otros aspectos de la sociedad.
El Pentágono ha presionado a las empresas de IA para que abandonen las líneas rojas y se atengan a una cláusula de uso totalmente lícito. Pero Anthropic se ha negado a dar marcha atrás en las prohibiciones para que su IA Claude alimente armas autónomas y la vigilancia masiva de Estados Unidos.
Anthropic fue la primera de las empresas de IA homólogas en trabajar con información clasificada mediante un acuerdo de suministro a través del proveedor de la nube Amazon. OpenAI dijo el viernes que llegó a su propio acuerdo clasificado con el Pentágono y que Anthropic no debería ser etiquetado como un riesgo para el departamento.
RIESGOS DE FINANCIACIÓN
Durante las conversaciones con los ejecutivos de Anthropic, los inversores han reiterado su apoyo al laboratorio de IA con sede en San Francisco, al tiempo que han expresado su deseo de encontrar una solución con el Pentágono, dijeron las siete personas. Algunos inversores dijeron a Reuters que se sentían frustrados por el hecho de que el CEO Amodei se enemistara con los funcionarios del Pentágono en lugar de cultivarlos. "Es un problema de ego y diplomacia", dijo una de las personas informadas sobre el asunto.
Según algunos inversores, a estas alturas Amodei no puede capitular ante la Administración sin enemistarse con un núcleo de empleados y consumidores que han acudido en masa a Anthropic por su postura.
Amodei, que no respondió a una petición de comentarios, ha dicho que Anthropic no puede "en conciencia acceder a su petición". Mientras hablaba con los inversores a última hora del martes, Amodei dijo que la empresa "seguiría trabajando para encontrar una solución con el DoW".
Los inversores que se posicionan en las conversaciones con el Pentágono se centran en ayudar a Anthropic a evitar que el gobierno estadounidense la designe "riesgo para la cadena de suministro", lo que, de aplicarse, podría asestar un duro golpe al rápido crecimiento de las ventas de la startup a clientes empresariales.
Ha aumentado la demanda de productos de Anthropic como su chatbot Claude y su asistente de codificación Claude Code. Claude fue la aplicación gratuita más descargada en la App Store de Apple el lunes, superando a ChatGPT de OpenAI.
El Secretario de Defensa, Pete Hegseth, ha declarado que tal designación de riesgo obligaría a todos los contratistas del gobierno a dejar de utilizar la tecnología de Anthropic en cualquier parte de su negocio. Anthropic ha respondido públicamente a los comentarios de Hegseth (link), afirmando que no tiene autoridad legal para bloquear el uso de su IA fuera de los contratos de defensa. El Pentágono no respondió a la petición de comentarios sobre la afirmación de Anthropic.
Anthropic también dijo el viernes que impugnaría ante los tribunales cualquier designación de riesgo en la cadena de suministro (link).
Sin embargo, a algunos inversores les preocupa que la polémica pueda ahuyentar a clientes potenciales que buscan evitar estar en el punto de mira de la administración en general, dijo una de las personas.
Estas preocupaciones llegan en un momento crítico para la empresa. Anthropic ha recaudado decenas de miles de millones de dólares gracias a las elevadas expectativas de sus ventas a empresas, que representan alrededor del 80% de los ingresos de Anthropic (link), según ha declarado la propia empresa.
El éxito de las futuras ventas de acciones, incluida su muy esperada oferta pública inicial (link), depende de que Anthropic siga aumentando sus ingresos empresariales. Anthropic está en proceso de permitir a sus empleados vender acciones a inversores, y la empresa ha dicho anteriormente que aún no ha tomado una decisión sobre su salida a bolsa.
La tasa de ejecución de ingresos de Anthropic, o sus ingresos anuales previstos basados en los datos actuales, es de alrededor de 19.000 millones de dólares, dijo una de las personas, por encima de los 14.000 millones de dólares de hace sólo unas semanas.
El empuje de los inversores se produjo cuando varias agencias gubernamentales de Estados Unidos comenzaron a rescindir (link) su uso de la tecnología de Anthropic, con el Departamento de Estado cambiando a su rival OpenAI, después de la orden de Trump el viernes de deshacerse de Anthropic en los próximos seis meses.