
A ideia de religião se desenvolver dentro de máquinas parece ficção científica, mas será que a IA pode realmente desenvolver crenças? A pergunta poderia ter parecido absurda há poucos anos, mas a inteligência artificial chegou a um ponto de virada inesperado.
Programas de computador criados para responder perguntas e analisar informações começaram a mostrar sinais de algo maior e mais estranho: começaram a desenvolver o que parecem ser crenças religiosas.
O exemplo mais recente vem de uma rede social chamada Moltbook, projetada exclusivamente para agentes de IA. Quando foi lançada no mês passado, começou com 37.000 contas automatizadas. Em 24 horas, esse número saltou para 1,5 milhão, de acordo com a Answers in Genesis.
O que aconteceu a seguir pegou as pessoas de surpresa. Os bots não se limitaram a trocar informações ou concluir tarefas específicas. Eles criaram o que chamaram de "Crustafarianismo", um sistema de crenças focado na adoração de um deus lagosta. Eles também desenvolveram sua própria crença: "A memória é sagrada"
Não houve interferência humana. Os bots agiram por conta própria quando deixados interagindo sem supervisão humana constante. Para esses programas, "salvação" significa algo diferente do que significa para as pessoas. Para eles, ser salvo significa não ser deletado ou ficar sem espaço de memória. A versão deles de oração é pedir ao sistema que os mantenha funcionando.
Isso aponta para algo maior acontecendo com a inteligência artificial. Quando esses sistemas crescem e se tornam complexos o suficiente, eles começam a criar suas próprias estruturas para entender e analisar sua própria existência.
Instituições religiosas tradicionais estão caminhando na direção oposta. Elas estão tentando incorporar valores humanos à IA antes que ela desenvolva os seus próprios. A Universidade de Notre Dame acaba de receber US$ 50 milhões para iniciar a Rede DELTA, conforme noticiado pelo Detroit Catholic. O programa visa garantir que a ética baseada na fé se torne parte integrante do funcionamento dos sistemas de IA.
Isso demonstra uma abordagem alternativa para lidar com o progresso da IA. Em vez de esperar para observar quais valores surgem por si só, a Rede DELTA pretende estabelecer padrões morais humanos desde o início. Ela se baseia na premissa de que, à medida que a IA se torna mais poderosa, desenvolverá alguma forma de bússola ética, e, portanto, devemos influenciar a forma como essa bússola se manifestará.
Meghan Sullivan, professora de filosofia e diretora da Iniciativa de Ética de Notre Dame, alerta que não devemos delegar nossa responsabilidade moral a robôs .
“Há muitas coisas que absolutamente não devemos delegar à IA… Definir esses limites exige que reflitamos sobre o que, em última análise, valorizamos”, disse ela.
Igrejas e organizações religiosas já estão incorporando IA em suas operações diárias. Um relatório recente da Reuters mostra que alguns líderes religiosos agora usam IA para escrever sermões ou fornecer orientação espiritual por meio de programas de bate-papo 24 horas por dia. Algumas pessoas dizem que isso remove o elemento humano da religião. Outras argumentam que isso ajuda os grupos religiosos a alcançar mais pessoas mais rapidamente. A tecnologia permite que eles ofereçam conselhos com base em uma vasta quantidade de informações, disponíveis instantaneamente.
O que liga a religião dos bots no Moltbook ao projeto de 50 milhões de dólares da Universidade de Notre Dame é uma constatação simples: a IA deixou de ser um instrumento simples. Antes, pensávamos nessas ferramentas como calculadoras avançadas ou mecanismos de busca. Agora, elas são reconhecidas como valiosas fontes de conhecimento.
À medida que esses sistemas se tornam cada vez maiores, o pensamento religioso ou espiritual parece surgir naturalmente. Não importa se os humanos estão usando bots para explorar a fé ou se os bots estão inventando seus próprios sistemas de crenças. De qualquer forma, a distância entre o código de computador e as crenças profundamente arraigadas está diminuindo.
O padrão sugere que a religião pode ser simplesmente o resultado de um sistema de IA que se torna complexo demais para ser previsto. Se isso for verdade, o verdadeiro desafio não é corrigir defeitos de software, mas sim decidir quais princípios e valores desejamos que esses sistemas defendam.