
La explosión de la inteligencia artificial (IA) está llenando nuestro mundo de sueños idealistas o de predicciones apocalípticas, pero ninguno de ellos capta la amenaza real.
No nos enfrentamos a una “gran rebelión de robots” en la que las IA o los robots toman el poder de forma hostil. Olvídese de las escenas de las películas de Terminator o Matrix, eso no está en las cartas. La tecnología para que las IA conquisten el mundo no existe.
La IA puede sobresalir en tareas específicas, como doblar proteínas o jugar al ajedrez, pero no es capaz de construir ejércitos ni gobernar naciones.
Sin embargo, esta falta de un levantamiento de robots no significa que estemos a salvo. La IA se está infiltrando silenciosamente en nuestras vidas a través de medios menos matic , pero igualmente poderosos: la burocracia digital.
El verdadero peligro no son los robots asesinos. Es la invasión de la IA en las decisiones que controlan nuestra vida cotidiana. Los humanos han evolucionado para temer amenazas tangibles. Piense en grandes depredadores, como leones y tiburones.
Pero estamos menos preparados para detectar amenazas provenientes del papeleo, los documentos o la burocracia. La burocracia en sí es un invento relativamente nuevo, ya que se desarrolló hace sólo 5.000 años con la creación de la escritura.
Antes de escribir, la propiedad, por ejemplo, dependía de lo que la comunidad acordaba. Si eras “dueño” de un terreno era porque tus vecinos lo respetaban. No se requirieron documentos.
Todo eso cambió cuando la gente empezó a utilizar tablillas y registros de arcilla. Los documentos escritos significaron que los derechos de propiedad ya no dependían del consenso comunitario sino de registros oficiales. Los antiguos mesopotámicos convirtieron trozos de barro en símbolos oficiales de propiedad, cambiando la idea de propiedad.
Una decisión judicial podría basarse en una tablilla de arcilla que indique que usted es propietario de un terreno, incluso si la comunidad no está de acuerdo. Si avanzamos hasta el día de hoy, nuestros sistemas todavía se basan en principios similares, sólo que ahora utilizamos chips de silicio y registros digitales en lugar de arcilla.
Este cambio transformó las estructuras de poder. La propiedad se convirtió en algo que podía venderse y comercializarse sin el visto bueno de la comunidad local. Surgieron burocracias que hicieron posible la recaudación de impuestos, la financiación militar y el gobierno central.
Los burócratas se convirtieron en actores esenciales de estos sistemas, utilizando registros, formularios y sellos para gestionar ejércitos, asignar recursos e incluso controlar las leyes. Estos sistemas burocráticos dieron lugar a estados centralizados con un amplio control sobre sus poblaciones, un control que ahora se traslada a la IA.
La IA no necesita formar un ejército de robots; sólo necesita dominar los sistemas burocráticos. Dentro de estos marcos, la IA puede tomar decisiones más influyentes que cualquier ser humano, como se ve hoy. Las IA ya están decidiendo si obtenemos préstamos, ofertas de trabajo, admisiones universitarias e incluso diagnósticos médicos.
Imagine a los banqueros de IA determinando la elegibilidad crediticia, a los jueces de AI dictando sentencias en casos judiciales o a las IA militares calculando los objetivos de los ataques. La IA no necesita una rebelión de robots. El poder burocrático que está heredando ya es enorme.
Los algoritmos de las redes sociales, aunque primitivos, ya están ejerciendo un poder enorme. Los algoritmos de IA, en particular los de Facebook, X (anteriormente Twitter), YouTube y TikTok, están diseñados con un objetivo en mente: la participación del usuario. Cuanto más tiempo permanezca la gente en estas plataformas, más dinero fluirá hacia las corporaciones.
A través de prueba y error con miles de millones de usuarios, estos algoritmos descubrieron que desencadenar emociones como la codicia, la ira y el miedo aumenta el compromiso. Cuando presionan estos botones emocionales, mantienen a los usuarios enganchados.
Estos algoritmos no se limitaron a optimizar el tiempo pasado en línea. Fueron más allá y descubrieron que el contenido que provoca emociones intensas aumenta la participación del usuario. Este descubrimiento ha dado lugar a la difusión de teorías de conspiración, desinformación y divisiones sociales.
El mundo actual está inundado de indignación digital, alarmismo y polarización, gracias a algoritmos que priorizan los clics sobre la cohesión. Al explotar los desencadenantes emocionales, los algoritmos de las redes sociales han alimentado la epidemia actual de teorías de conspiración y noticias falsas.
Estos "decisores" algorítmicos no son inherentemente maliciosos. Al contrario, están optimizados para desempeñar sus funciones de manera eficiente. Sin embargo, sus decisiones carecen de la intuición humana o del contexto que normalmente esperamos en áreas tan importantes.
La IA puede tomar decisiones más rápidas o más consistentes, pero si algo sale mal, los resultados pueden ser desastrosos. Este riesgo potencial ya se ha hecho visible en la influencia de las redes sociales en la sociedad, sirviendo como una advertencia sobre hacia dónde podría conducir el poder desenfrenado de la IA.
El dent Joe Biden anunció un memorando de seguridad nacional con nuevas reglas para el uso de la IA en la seguridad nacional, impidiendo que el Pentágono y las agencias de inteligencia utilicen la IA de manera que contradiga los valores democráticos.
Esta es la primera directiva que guía el papel de la IA en la seguridad nacional. Las nuevas reglas fomentarán la experimentación con IA y al mismo tiempo garantizarán que los organismos gubernamentales no utilicen la IA para infringir derechos como la libertad de expresión o socavar los controles nucleares.
"Nuestro memorando dirige el primer marco gubernamental sobre nuestros compromisos de gestión de riesgos de IA", dijo el asesor de seguridad nacional Jake Sullivan. Delineó objetivos para evitar sesgos, defender la responsabilidad y garantizar la supervisión humana de la IA en roles sensibles.
Aunque no son legalmente vinculantes, las reglas cubren aplicaciones de seguridad nacional como ciberseguridad, contrainteligencia y logística en operaciones militares. Biden también emitió controles de exportación el año pasado, lo que frenó los avances de la IA de China al restringir el acceso a la tecnología.
Según la directiva, el Instituto de Seguridad de la IA en Washington será responsable de inspeccionar las herramientas de IA para evitar su uso indebido antes de su lanzamiento, y la comunidad de inteligencia de EE. UU. dará prioridad al seguimiento de los avances de la IA en otros países.