tradingkey.logo
tradingkey.logo

Im Inneren des weltweit ersten KI-Krieges: Zielfehler, Desinformation und Verantwortlichkeitslücken

CryptopolitanMar 13, 2026 8:30 PM

Am ersten Tag der US-amerikanischen und israelischen Luftangriffe auf den Iran wurde in der südiranischen Stadt Minab eine Schule bombardiert. Mehr als 175 Menschen, darunter Schulkinder, starben. Weder Washington noch Tel Aviv haben zu den Geschehnissen geäußert Niemand hat die Verantwortung übernommen. Immer wieder stellt sich die Frage: Hat ein KI-System das falsche Ziel getroffen ?

In den ersten 24 Stunden griffen US-Streitkräfte rund 1.000 Ziele an, etwa 42 pro Stunde. Ein CSET-Bericht über das 18. Luftlandekorps ergab, dass mit dem Maven Smart System 20 Personen die Aufgaben eines bewältigen . Ende 2024 integrierten ein umfangreiches Sprachmodell – dieselbe Software, die auch in KI-Chatbots für Endverbraucher zum Einsatz kommt – in Maven . Dies war einer der ersten Kriege, diese Technologie zur Zielerfassung eingesetzt wurde

Das US-Militär untersucht weiterhin . Es hat sich nicht dazu geäußert , ob und in welcher Rolle das KI-System beim Abschuss der Rakete auf das Gebäude spielte

Die New York Times berichtete frühzeitig, dass das System möglicherweise mit veralteten Daten gearbeitet habe dent Auslandskorrespondentin Louisa Loveluck schrieb auf X, der Angriff habe möglicherweise „auf zehn Jahre alten Geheimdienstinformationen kostenlos online eingesehen habe, hätte an einem der als Angriffsziele markierten Orte „eine Schule mit Sportplatz“ erkennen können.

Der Informatiker Anh Totti Nguyen hat untersucht, wo KI-Bildverarbeitungssysteme versagen. In seiner Arbeit „Vision language models are blind: Failing to translate detailed visual features into words“ (Bildsprachmodelle sind blind: Das Versagen bei der Übersetzung detaillierter visueller Merkmale in Worte) stellte er fest, dass diese Systeme häufig dann versagen, wenn zwei Strukturen nahe beieinander liegen und die Software herausfinden muss, welche welche ist.

Satellitenbilder der New York Times zeigen, dass die Shajarah Tayyebeh Grundschule direkt neben einem Gelände der Revolutionsgarden in Minab liegt aufgedeckt hat .

Wer trägt die Verantwortung, wenn die KI einen Fehler macht?

Emilia Probasco, ehemalige Marineoffizierin und Senior Fellow am Center for Security and Emerging Technology, erklärte im Podcast , dass die Verantwortung beim Befehlshaber liege, der den Befehl erteilt habe. So funktioniere das Militär . Das Problem der „Black Box“, also die Unmöglichkeit, den Lösungsweg eines KI-Systems nachzuvollziehen, sei „ein fortlaufendes Forschungsgebiet, noch nicht gelöst“.

geriet Anthropic, das Unternehmen, dessen Technologie trac Maven steckt einen Vertragsstreit mit dem Verteidigungsministerium über zwei Punkte: ob KI zuverlässig genug für lebenswichtige Entscheidungen und ob die Verwendung von KI zur Verknüpfung verstreuter Datenpunkte sie in ein Massenüberwachungsinstrument verwandelt.

Probasco sagte, beide Bedenken seien berechtigt, merkte aber es sei „unangenehm, wenn ein privates Unternehmen Grenzen zieht, wie das Militär seine Operationen “.

Holland Michel sagte, die Diskussion drifte immer weiter in Richtung des schlimmsten anzunehmenden Falls ab : Eine Maschine, die Ziele auswählt ohne menschliches Eingreifen . Dieses Risiko sei real, sagte er, aber es entspreche nicht der aktuellen Situation .

„Die schwierigere und dringlichere Aufgabe“, sagte er, „besteht darin, KI-Systeme transparenter zu machen und sicherzustellen, dass die Menschen, die sich auf deren Ergebnisse verlassen, wirklich fundierte Entscheidungen treffen und sich nicht einfach dem beugen, was die Maschine vorschlägt.“

KI-generierte Kriegsinhalte verbreiteten sich ebenfalls schnell online.

BBC Verify trac KI -generierte Videos und manipulierte Satellitenbilder über den Konflikt, die Hunderte von Millionen Aufrufe erzielten

Timothy Graham, ein Forscher für digitale Medien an der Queensland University of Technology, sagte: „Das Ausmaß ist wirklich alarmierend , und dieser Krieg macht es unmöglich, es jetzt zu ignorieren. “ Er fügte hinzu: „Was früher professionelle Videoproduktion erforderte, kann heute mit KI-Tools in Minuten erledigt werden. Die Hürde für die Erstellung überzeugender synthetischer Konfliktaufnahmen ist praktisch gefallen .“

X kündigte an, Content -Ersteller von seinem Vergütungsprogramm auszuschließen, wenn sie KI-generiertes Kriegsmaterial ohne Kennzeichnung veröffentlichen . Mahsa Alimardani, Iran-Expertin am Oxford Internet Institute, bezeichnete dies als deutliches Signal dafür, dass sie das Problem erkannt haben“. reagierten nicht ähnliche Maßnahmen planen .

Ihre Bank nutzt Ihr Geld. Sie bekommen nur die Krümel. Sehen Sie sich unser kostenloses Video an, wie Sie Ihre eigene Bank werden können.

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Empfohlene Artikel

KeyAI