Aufgrund der US-Militärkampagne gegen den Iran haben KI-generierte Informationen und Deepfakes ein bisher ungeahntes Ausmaß erreicht, was es schwierig macht, Fakten von Fiktion unterscheiden
Am Sonntag, dem 15. März 2026, beschuldigte Präsident dent Trump den Iran, KI als „Desinformationswaffe“ einzusetzen, um den Kriegsverlauf falsch darzustellen. In einem Gespräch mit Reportern an Bord der Air Force One warnte er: „KI kann sehr gefährlich sein“ und beschrieb, wie das iranische Regime die Technologie angeblich nutzte, um die Öffentlichkeit täuschen
Er sagte, der Iran habe angeblich KI eingesetzt, um einen erfolgreichen Angriff auf den Flugzeugträger USS Abraham Lincoln vorzutäuschen. Er behauptete außerdem, Bilder, die 250.000 Iraner bei einer Kundgebung für den neuen Obersten Führer Mudschtaba Khamenei zeigten, seien „vollständig KI-generiert“.
Diese Behauptungen blieben jedoch nicht unwidersprochen. Reuters bestätigte anhand von Bildern aus dem irakischen Hafen von Basra, dass iranische Boote mit Sprengstoff beladen tatsächlich Treibstofftanker in der Region angegriffen hatten.
Während regierungsfreundliche Kundgebungen stattfanden, veröffentlichten Nachrichtenorganisationen verifizierte Fotos von Menschenmengen aus Teheran, an die Trump nicht wandte .
Verschärft wird die Situation durch das, was Forscher als „Lügnerdividende“ bezeichnen: die Tatsache, dass echte Bilder als Fälschungen abgetan werden
Die New York Times wurde von einer Organisation namens Empirical Research and Forecasting Institute beschuldigt, digital veränderte Bilder von Menschenmengen in Teheran verbreitet zu haben.
Die Times reagierte mit heftiger Kritik . Laut Sprecherin Nicole Taylor sei das Bild authentisch, und die Kritik daran sei „grundlegend fehlerhaft und unredlich auf einer erneut veröffentlichten Version basierend, die die übliche Bildkomprimierung falsch darstellt“.
Der Journalist Mehdi Hasan brachte das Problem in seiner direkten Antwort auf die Anschuldigungen gegen die Times auf den Punkt: „Wir haben also nicht nur das Problem, dass KI gefälschte Bilder erzeugt und uns täuscht und verwirrt, sondern jetzt auch noch Akteure in böser Absicht, die echte Bilder fälschlicherweise als KI-Bilder bezeichnen.“
Zwei kürzlich veröffentlichte Videos des israelischen PremierministersenjNetanjahu wurden vom KI-Chatbot Grok als „100% Deepfake“ gekennzeichnet. Die Hindustan Times berichtete: „Netanjahus zweites Video aus einem Café mitenj‚Ich lebe‘ hat online erneut wilde Spekulationen ausgelöst, nachdem Grok, Elon Musks X-Chatbot, es als ‚KI-generiert‘ bezeichnet hatte.“


X reagierte darauf mit der Ankündigung, Content-Ersteller für 90 Tage von seinem Zahlungsprogramm auszuschließen, falls sie Videos zum Thema KI-Krieg ohne entsprechende Kennzeichnung veröffentlichen. Wiederholte Verstöße würden mit einem dauerhaften Ausschluss geahndet .
Die Forscher sind nicht beeindruckt. Joe Bodnar vom Institute for Strategic Dialogue sagte gegenüber AFP: „Die von mir überwachten Feeds sind immer noch mit KI-generierten Inhalten über den Krieg überflutet.“
Experten wiesen zudem darauf hin, dass das Geschäftsmodell von X, bei dem Premium-Kontoinhaber nach dem Engagement ihrer Beiträge bezahlt werden , einen direkten finanziellen Anreiz schafft, schockierende und übertriebene Inhalte zu veröffentlichen.
Die Trump-Regierung steht unter Beschuss, nachdem sie Videos in den sozialen Medien veröffentlicht hat, die echtes Militärmaterial aus dem Iran-Konflikt mit Filmausschnitten und Videospielszenen vermischen.
Das Weiße Haus teilte mehrere Videos auf X und TikTok, die von Kritikern als „Meme-Krieg“ bezeichnet werden. Ein 60-sekündiges Video beginnt mit einer Szene aus „Call of Duty : Modern Warfare II“, in der ein Spieler eine „massengelenkte Bombe“ freischaltet, bevor zu tatsächlichen Aufnahmen von US-Angriffen auf den Iran übergegangen wird.
Während einige Videos erfolgreiche US-Angriffe auf iranische Flugzeuge zu zeigen scheinen, behauptete die Öffentlichkeit später, dass es sich bei den Zielen tatsächlich um Täuschungsmanöver handelte : gemalte Bilder von Jets, die die US-Streitkräfte in die Irre führen sollten.
Abgeordnete und Veteranen lehnten die Strategie vehement ab und behaupteten, sie ignoriere die menschlichen Kosten des Krieges und verwandle den tatsächlichen Konflikt in Unterhaltung.
Senatorin Tammy Duckworth aus Illinois schrieb auf X : „Krieg ist kein verdammtes Videospiel. Sieben Amerikaner sind tot, und Tausende weitere sind wegen eures illegalen, ungerechtfertigten Krieges unnötig gefährdet. Und ihr nennt das einen ‚makellosen Sieg‘.“
Wie Anya Schiffrin von der Columbia University es ausdrückte: KI-gesteuerte Propaganda ist global, während die Regulierung bleibt , sodass die Öffentlichkeit selbst herausfinden muss, was real ist und was eine Maschine erfunden hat.
Wenn Sie einen ruhigeren Einstieg in die DeFi Kryptowährungen ohne den üblichen Hype wünschen, beginnen Sie mit diesem kostenlosen Video.