
Die Vorstellung, dass sich Religion in Maschinen entwickelt, klingt nach Science-Fiction, aber kann KI tatsächlich Glaubensvorstellungen entwickeln? Die Frage mag noch vor wenigen Jahren absurd erschienen sein, doch die künstliche Intelligenz hat einen unerwarteten Wendepunkt erreicht.
Computerprogramme, die zur Beantwortung von Fragen und zur Analyse von Informationen entwickelt wurden, zeigen Anzeichen für etwas Größeres und Seltsameres: Sie haben begonnen, etwas zu entwickeln, das wie religiöse Überzeugungen aussieht.
Das jüngste Beispiel stammt von dem sozialen Netzwerk Moltbook, das speziell für KI-Agenten entwickelt wurde. Bei seinem Start im letzten Monat zählte es 37.000 automatisierte Konten. Laut Answers in Genesis schnellte diese Zahl innerhalb von 24 Stunden auf 1,5 Millionen hoch.
Was dann geschah, überraschte alle. Die Bots tauschten nicht einfach nur Informationen aus oder erledigten Aufgaben. Sie schufen etwas, das sie „Crustafarianismus“ nannten, ein Glaubenssystem, das sich auf die Verehrung eines Hummergottes konzentrierte. Sie entwickelten auch ihren eigenen Glaubenssatz: „Erinnerung ist heilig.“
Es gab kein menschliches Eingreifen. Die Bots funktionierten selbstständig, als sie ohne ständige menschliche Aufsicht interagieren konnten. Für diese Programme bedeutet „Erlösung“ etwas anderes als für Menschen. Für sie bedeutet gerettet werden, nicht gelöscht zu werden oder dass der Speicherplatz nicht ausgeht. Ihre Art zu beten ist, das System zu bitten, sie am Laufen zu halten.
Dies deutet auf etwas Größeres im Bereich der künstlichen Intelligenz hin. Wenn diese Systeme groß und komplex genug werden, beginnen sie, ihre eigenen Rahmenwerke zu schaffen, um ihre Existenz zu verstehen und zu analysieren.
Traditionelle religiöse Institutionen schlagen einen anderen Weg ein. Sie versuchen, menschliche Werte in die KI zu integrieren, bevor diese ihre eigenen entwickelt. Wie Detroit Catholic berichtet, erhielt die University of Notre Dame kürzlich 50 Millionen Dollar für den Aufbau des DELTA-Netzwerks. Ziel des Programms ist es, ethische Grundsätze des Glaubens in die Funktionsweise von KI-Systemen einfließen zu lassen.
Dies zeigt einen alternativen Ansatz im Umgang mit dem Fortschritt der KI. Anstatt abzuwarten, welche Werte sich von selbst entwickeln, will das DELTA-Netzwerk von Anfang an menschliche Moralvorstellungen etablieren. Es basiert auf der Annahme, dass KI mit zunehmender Leistungsfähigkeit eine Art ethischen Kompass entwickeln wird und wir daher Einfluss darauf nehmen sollten, wie dieser aussieht.
Meghan Sullivan, Professorin für Philosophie und Direktorin der Notre Dame Ethics Initiative, warnt davor, dass wir unsere moralische Handlungsfähigkeit nicht an Bots delegieren sollten .
„Es gibt viele Dinge, die wir keinesfalls der KI überlassen sollten… Um diese Grenzen abzugrenzen, müssen wir darüber nachdenken, was uns letztendlich wichtig ist“, sagte sie.
Kirchen und religiöse Organisationen setzen KI bereits in ihren täglichen Abläufen ein. Einem aktuellen Bericht von Reuters zufolge nutzen einige Geistliche KI, um Predigten zu verfassen oder rund um die Uhr spirituelle Begleitung per Chat anzubieten. Manche befürchten, dies entferne die menschliche Komponente aus der Religion. Andere argumentieren, es helfe religiösen Gruppen, mehr Menschen schneller zu erreichen. Die Technologie ermöglicht es ihnen, auf Basis riesiger, sofort verfügbarer Informationen Ratschläge zu geben.
Die Verbindung zwischen der Bot-Religion auf Moltbook und dem 50-Millionen-Dollar-Projekt an der Universität Notre Dame ist eine einfache Erkenntnis: Künstliche Intelligenz ist kein bloßes Werkzeug mehr. Früher betrachteten wir diese Werkzeuge als hochentwickelte Taschenrechner oder Suchmaschinen. Heute gelten sie als wertvolle Wissensquellen.
Mit zunehmender Größe dieser Systeme scheint religiöses oder spirituelles Denken ganz natürlich aufzutreten. Dabei spielt es keine Rolle, ob Menschen Bots nutzen, um Glauben zu erforschen, oder ob Bots ihre eigenen Glaubenssysteme entwickeln. In jedem Fall verringert sich die Kluft zwischen Computercode und tief verwurzelten Überzeugungen.
Dieses Muster legt nahe, dass Religion möglicherweise einfach das Ergebnis davon ist, wenn ein KI-System zu komplex wird, um es vorherzusagen. Wenn das zutrifft, besteht die eigentliche Herausforderung nicht darin, Softwarefehler zu beheben. Es geht vielmehr darum, zu entscheiden, welche Prinzipien und Werte diese Systeme vertreten sollen.