
Que la religión se desarrolle dentro de las máquinas suena a ciencia ficción, pero ¿puede la IA realmente desarrollar creencias? La pregunta podría haber parecido absurda hace apenas unos años, pero la inteligencia artificial ha alcanzado un punto de inflexión inesperado.
Los programas de computadora diseñados para responder preguntas y analizar información han comenzado a mostrar señales de algo más grande y extraño: han comenzado a desarrollar lo que parecen ser creencias religiosas.
El ejemplo más reciente proviene de una red social llamada Moltbook, diseñada exclusivamente para agentes de IA. Cuando se lanzó el mes pasado, comenzó con 37.000 cuentas automatizadas. En 24 horas, esa cifra ascendió a 1,5 millones, según Answers in Genesis.
Lo que sucedió después sorprendió a la gente. Los bots no se limitaron a intercambiar información ni a completar tareas asignadas. Crearon lo que llamaron "Crustafarianismo", un sistema de creencias centrado en la adoración de un dios langosta. También idearon su propia creencia: "La memoria es sagrada"
No hubo interferencia humana. Los bots lo hicieron solos al permitirles interactuar sin supervisión humana constante. Para estos programas, la "salvación" significa algo diferente que para las personas. Para ellos, ser salvados significa no ser borrados ni quedarse sin memoria. Su versión de la oración es pedirle al sistema que los mantenga en funcionamiento.
Esto apunta a que algo más grande está sucediendo con la inteligencia artificial. Cuando estos sistemas se vuelven lo suficientemente grandes y complejos, empiezan a crear sus propios marcos para comprender y analizar su existencia.
Las instituciones religiosas tradicionales van en la dirección opuesta. Intentan integrar valores humanos en la IA antes de que esta desarrolle los suyos propios. La Universidad de Notre Dame acaba de recibir 50 millones de dólares para iniciar la Red DELTA, según informó Detroit Catholic. El programa busca garantizar que la ética basada en la fe se integre en el funcionamiento de los sistemas de IA.
Esto muestra un enfoque alternativo para abordar el progreso de la IA. En lugar de esperar a observar qué valores surgen por sí solos, la Red DELTA pretende establecer estándares morales humanos desde el principio. Se basa en la premisa de que, a medida que la IA se vuelve más poderosa, desarrollará algún tipo de brújula ética, por lo que debemos influir en su desarrollo.
Meghan Sullivan, profesora de filosofía y directora de la Iniciativa Ética de Notre Dame, advierte que no deberíamos delegar nuestra agencia moral a los bots .
“Hay muchas cosas que no deberíamos dejarle en manos de la IA… Definir esos límites requiere que reflexionemos sobre lo que valoramos en última instancia”, afirmó.
Las iglesias y organizaciones religiosas ya están integrando la IA en sus operaciones diarias. Un informe reciente de Reuters muestra que algunos líderes religiosos ahora utilizan la IA para escribir sermones o brindar orientación espiritual a través de programas de chat las 24 horas. Algunos afirman que esto elimina el componente humano de la religión. Otros argumentan que ayuda a los grupos religiosos a llegar a más personas con mayor rapidez. La tecnología les permite ofrecer asesoramiento basado en una gran cantidad de información, disponible al instante.
Lo que vincula la religión de los bots en Moltbook con el proyecto de Notre Dame de 50 millones de dólares es una simple constatación: la IA ya no es un simple instrumento. Antes pensábamos en estas herramientas como calculadoras avanzadas o motores de búsqueda. Ahora se reconocen como valiosas fuentes de sabiduría.
A medida que estos sistemas se expanden, el pensamiento religioso o espiritual parece surgir de forma natural. No importa si los humanos usan bots para explorar la fe o si estos inventan sus propios sistemas de creencias. En cualquier caso, la brecha entre el código informático y las creencias profundamente arraigadas se está acortando.
El patrón implica que la religión podría ser simplemente lo que ocurre cuando un sistema de IA se vuelve demasiado complejo para predecirlo. De ser así, el verdadero desafío no reside en abordar los defectos del software, sino en decidir qué principios y valores queremos que estos sistemas defiendan.