tradingkey.logo
tradingkey.logo
Buscar

Los piratas informáticos de estados nacionales de Rusia, Irán, Corea del Norte y China utilizan la IA solo para tareas básicas

Cryptopolitan25 de feb de 2026 18:55

Las empresas tecnológicas y los funcionarios gubernamentales siguen advirtiendo que la inteligencia artificial se está convirtiendo en un arma peligrosa para los enemigos extranjeros, pero nuevas evidencias revelan una historia diferente. Informes recientes muestran que grupos patrocinados por estados utilizan las mismas herramientas públicas que los usuarios comunes de internet y, a menudo, enfrentan las mismas dificultades.

OpenAI compartió recientemente detalles sobre cómo grupos vinculados al gobierno intentaron utilizar sus plataformas.

El caso más notable fue el de una campaña de influencia china que se dent cuando un funcionario de las fuerzas del orden chino utilizó ChatGPT como diario personal. El funcionario escribió sobre una operación dirigida a críticos chinos residentes en otros países.

La campaña involucró a cientos de operadores y miles de cuentas falsas en las redes sociales, según OpenAI .

La operación intentó hacerse pasar por agentes de inmigración estadounidenses para intimidar a undent , afirmando falsamente que sus declaraciones públicas infringían la ley estadounidense. En otros casos, los operadores utilizaron documentos falsificados que pretendían provenir de un tribunal de condado para intentar que las cuentas de sus críticos en redes sociales fueran eliminadas.

Obituarios falsos y documentos falsificados son parte de una campaña de acoso

Crearon un obituario falso y fotos de lápidas para difundir rumores falsos sobre la muerte de dent aparecieron en línea en 2023, según confirmó un artículo de Voice of America en chino. Ben Nimmo, quien dirige las investigaciones en OpenAI, calificó el esfuerzo como acoso industrializado dirigido a los críticos del Partido Comunista Chino a través de múltiples canales.

El uso de ChatGPT como herramienta de registro terminó exponiendo la operación. ChatGPT funcionaba como un diario para que el agente trac la red encubierta, mientras que otras herramientas generaban la mayor parte del contenido que se difundía en redes sociales. OpenAI baneó al usuario tras descubrir la actividad.

Los investigadores de OpenAI compararon las descripciones del usuario de ChatGPT con su actividad real en línea. El usuario describió haber fingido la muerte de undentchino creando un obituario falso y fotos de la lápida para publicarlas en línea.

En otro caso, el usuario de ChatGPT solicitó al sistema que creara un plan para dañar la reputación de la primera ministra japonesa entrante, Sanae Takaichi, fomentando la indignación por los aranceles estadounidenses. ChatGPT se negó. Pero a finales de octubre, cuando Takaichi asumió el poder, aparecieron en un popular foro de artistas gráficos japoneses que la atacaban y se quejaban de los aranceles.

El informe de OpenAI también cubrió varias operaciones fraudulentas de Camboya que utilizaron la plataforma para fraudes románticos y de inversión, además de campañas de influencia vinculadas a Rusia dirigidas a Argentina y África.

El informe de Microsoft muestra patrones de uso básicos similares

Microsoft publicó un informe independiente, en colaboración con OpenAI, que analiza cómo actores estatales de Rusia, Corea del Norte, Irán y China están probando modelos de lenguaje de gran tamaño para respaldar operaciones de ciberataque. Ambas compañías frenaron los esfuerzos de cinco actores afiliados a estados cerrando sus cuentas.

El informe reveló que estos actores principalmente usar los servicios para tareas sencillas, como buscar información pública, traducir contenido, corregir errores de codificación y ejecutar tareas básicas de programación. Hasta la fecha, no se han detectado ataques importantes ni nuevos que utilicen estos modelos.

Esta brecha entre el miedo y la realidad se produce en medio de una intensa competencia entre Washington y Pekín por el control de esta tecnología. Su papel en asuntos militares y económicos se ha convertido en una importante disputa . El Pentágono informó a otra empresa, Anthropic , que tiene hasta el viernes para eliminar ciertas características de seguridad de su modelo o se arriesga a perder un contrato de trac .

Microsoft afirmó estar trabajando en principios para reducir los riesgos del mal uso de estas herramientas por parte de grupos estatales y organizaciones criminales. Estos principios incluyen detectar y detener maliciosos , informar a otros proveedores de servicios, colaborar con otros grupos y ser transparente.

¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.

Descargo de responsabilidad: La información proporcionada en este sitio web es solo para fines educativos e informativos, y no debe considerarse como asesoramiento financiero o de inversión.
KeyAI