tradingkey.logo

UNICEF fordert Regierungen auf, KI-generiertes Material über Kindesmissbrauch unter Strafe zu stellen

CryptopolitanFeb 5, 2026 11:30 AM

Das Kinderhilfswerk der Vereinten Nationen (UNICEF) wies am Mittwoch auf Berichte über einen rasanten Anstieg der im Internet kursierenden KI-generierten sexualisierten Bilder hin. Bei diesen KI-generierten Bildern handelte es sich hauptsächlich um Fälle, in denen Fotos von Kindern manipuliert und sexualisiert wurden.

Die Organisation argumentierte, dass der zunehmende Einsatz KI-gestützter Bild- und Videogenerierungstools zur Herstellung von kinderpornografischem Material die Risiken für Kinder durch digitale Technologien verschärft. UNICEF forderte Regierungen und die Industrie dringend zum Handeln auf, um die Erstellung und Verbreitung KI-generierter kinderpornografischer Inhalte zu verhindern.

Sexualisierte, KI-generierte Inhalte verursachen langfristige emotionale Schäden bei Kindern

Die UN-Organisation merkte an, dass hochwertige generative Modelle vor weniger als fünf Jahren erhebliche Rechenleistung und Fachkenntnisse erforderten. Die aktuellen Open-Source-Modelle erleichtern es Tätern jedoch, Inhalte mit sexuellem Missbrauch zu erstellen. 

Die Organisation ist der Ansicht, dass solche Inhalte, obwohl kein echtes Kind direkt betroffen ist, die Sexualisierung von Kindern normalisieren und die dent . UNI argumentierte zudem , dass Täter realistische sexuelle Darstellungen von Kindern erstellen können, ohne dass diese daran beteiligt sind oder davon wissen.

UNIerklärte, solche Inhalte könnten das Recht eines Kindes auf Schutz verletzen, ohne dass dieses es überhaupt bemerkt. Die Organisation führte außerdem aus, dass Kinder mit Scham, Stigmatisierung, verstärkter Verurteilung durch Gleichaltrige und Erwachsene, sozialer Isolation und langfristigen emotionalen Schäden konfrontiert werden.

UNI CEF enthüllte außerdem, dass die zunehmende Verfügbarkeit KI-gestützter Bild- und Videogenerierungstools zu einem sprunghaften Anstieg der Produktion und Verbreitung von kinderpornografischem Material geführt hat. Die britische Internet Watch Foundation (IWF) fand innerhalb eines Monats rund 14.000 mutmaßlich KI-generierte Bilder in einem einzigen Darknet-Forum, das sich kinderpornografischem Material widmet. Laut Bericht war ein Drittel des Materials kriminell und es handelte sich um die ersten realistischen KI-Videos von sexuellem Kindesmissbrauch.

Die IWF entdeckte außerdem 3.440 KI-Videos mit Darstellungen von sexuellem Kindesmissbrauch – ein Anstieg um 26.362 % gegenüber den 13 Videos des Vorjahres. 2.230 (65 %) dieser Videos wurden aufgrund ihrer extremen Gewaltdarstellung in Kategorie A eingestuft, weitere 1.020 (30 %) in Kategorie B.

dent zudem KI-gestützten sexuellen Missbrauch auf gängigen Plattformen, darunter Deepfake-Nacktbilder, die in Peer-to-Peer-Kontexten speziell für Mädchen erstellt wurden. Die Organisation wies außerdem auf einen Fall in Korea hin, wo die Strafverfolgungsbehörden zwischen 2022 und 2024 einen zehnfachen Anstieg von Sexualdelikten im Zusammenhang mit KI und Deepfake-Technologien verzeichneten

Die KI- und Deepfake-Fälle betrafen hauptsächlich Teenager, die die Mehrheit der Beschuldigten ausmachten. Thornys Umfrage ergab , dass jeder zehnte Teenager in den USA Fälle kannte, in denen Freunde mithilfe von KI-Tools synthetische, nicht einvernehmliche intime Bilder von Kindern erstellt hatten.

UNI CEF, ECPAT International und INTERPOL stellten außerdem fest, dass in elf Ländern im Jahr 2025 rund 1,2 Millionen Kinder mit der Manipulation ihrer Bilder zu sexuell expliziten Deepfakes durch KI-Tools konfrontiert werden könnten. Die Organisationen berichteten , dass bis zu zwei Drittel der Kinder in etwa elf Ländern befürchten, dass KI zur Erstellung gefälschter sexueller Bilder eingesetzt werden könnte.

UNIargumentierte, dass Eltern und Betreuungspersonen über KI-gestützte sexuelle Ausbeutung und Missbrauch aufgeklärt werden müssen. Die Organisation forderte außerdem Schulen auf,dentüber KI-bezogene Risiken und die damit verbundenen Schäden für Betroffene aufzuklären.

Länder distanzieren sich von Grok aufgrund seiner sexualisierten KI-Deepfakes

UNI erscheint zeitgleich mit der Einführung von Funktionen in Elon Musks KI-Tool Grok. Diese verhindern, dass das Tool echte Fotos von echten Personen so bearbeitet, dass sie diese in Ländern, in denen dies verboten ist, in freizügiger Kleidung zeigt. Die Initiative folgte auf weit verbreitete Besorgnis über sexualisierte KI-Deepfakes.

Die britische Regierung forderte X auf, Grok unter Kontrolle zu bringen, während die Regulierungsbehörde Ofcom erklärte, rund um die Uhr an einer Lösung zu arbeiten. X teilte in einer Stellungnahme mit, dass das Unternehmen die Möglichkeit für alle Nutzer, über das Grok-Konto und die Grok-App in Ländern, in denen dies verboten ist, Bilder von echten Personen in Bikinis, Unterwäsche und ähnlicher Kleidung zu erstellen, per Geoblocking eingeschränkt habe.

Malaysia und Indonesien blockierten Anfang letzten Monats ebenfalls den Zugang zu Grok aufgrund dessen Fähigkeit, sexuell explizite Deepfakes zu erstellen. Cryptopolitan wurde berichtet , dass Indonesien Grok die Wiederaufnahme des Betriebs gestattet hat, nachdem X sich verpflichtet hatte, die Einhaltung der Gesetze des Landes zu verbessern.

Lesen Sie Krypto-News nicht nur, sondern verstehen Sie sie. Abonnieren Sie unseren Newsletter. Er ist kostenlos .

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Verwandte Artikel

KeyAI