El documento mostró una tendencia en la que los modelos de OpenAI se convierten en una herramienta importante para alterar las elecciones y difundir información política errónea. Los malos actores, que a menudo cuentan con patrocinio estatal, utilizan estos modelos de IA para diversas actividades, incluida la generación de contenido para personas falsas en las redes sociales y la ingeniería inversa de malware.
A finales de agosto, OpenAI interrumpió una campaña iraní que estaba produciendo contenido en las redes sociales para influir en las opiniones en las elecciones estadounidenses, la política venezolana, el conflicto de Gaza e Israel. Informó que algunas cuentas, que posteriormente fueron prohibidas, también publicaban sobre las elecciones en Ruanda.
También descubrió que una empresa israelí también estaba involucrada en el intento de manipular los resultados de las encuestas en la India.
Sin embargo, OpenAI señaló que estas actividades no se han vuelto virales ni han cultivado audiencias sustanciales. Las publicaciones en las redes sociales relacionadas con estas campañas ganaron trac mínima. Esto podría indicar la dificultad de influir en la opinión pública a través de campañas de desinformación impulsadas por la IA.
Históricamente, las campañas políticas suelen estar alimentadas por información errónea procedente de los bandos en ejercicio. Sin embargo, la llegada de la IA presenta una amenaza diferente a la integridad de los sistemas políticos. El Foro Económico Mundial (FEM) afirmó que 2024 es un año histórico para las elecciones, ya que 50 países celebrarán elecciones.
Los LLM de uso cotidiano ya tienen la capacidad de crear y difundir información errónea de forma más rápida y convincente.
En respuesta a esta amenaza potencial, OpenAI dijo que está trabajando con partes interesadas relevantes compartiendo inteligencia sobre amenazas. Espera que este enfoque colaborativo sea suficiente para controlar los canales de desinformación y fomentar el uso ético de la IA, especialmente en contextos políticos.
OpenAI informa: "A pesar de la falta de participación significativa de la audiencia como resultado de esta operación, nos tomamos en serio cualquier esfuerzo por utilizar nuestros servicios en operaciones de influencia extranjera".
La firma de inteligencia artificial también enfatizó que se deben construir defensas de seguridad sólidas para prevenir ciberataques patrocinados por el estado, que utilizan la inteligencia artificial para crear campañas en línea engañosas y disruptivas.
El WEF también ha destacado la necesidad de implementar regulaciones sobre IA, diciendo: "Los acuerdos internacionales sobre estándares interoperables y requisitos regulatorios básicos desempeñarán un papel importante para permitir la innovación y mejorar la seguridad de la IA".
El desarrollo de marcos eficaces requiere asociaciones estratégicas entre empresas de tecnología como OpenAI, el sector público y partes interesadas privadas, que ayudarán a implementar sistemas de IA éticos.