
Berichten zufolge soll Claude, das Flaggschiffprodukt von Anthropic, an der US-Militäroperation in Venezuela zur Gefangennahme desdent und seiner Frau beteiligt gewesen sein.
Trotz der Anti-Gewalt-Politik von Anthropic ermöglicht die Partnerschaft des Unternehmens mit Palantir den Einsatz von Claude für militärische Operationen. Manche glauben, die KI sei auch für gewaltfreie Aufgaben eingesetzt worden.
Eine Reihe neuer Berichte hat ergeben, dass das US-Militär während der riskanten Operation zur Gefangennahme des ehemaligen venezolanischendent Nicolás Maduro das künstliche Intelligenzmodell Claude von Anthropic eingesetzt hat.
Die Mission mit dem Codenamen „Operation Resolve“ fand Anfang Januar 2026 statt und führte zur Verhaftung von Maduro und seiner Frau Cilia Flores im Herzen von Caracas. Laut dem Wall Street Journal und Fox News wurde Claude durch die Partnerschaft von Anthropic mit dem Datenanalyseunternehmen Palantir Technologies .
Das US-Kriegsministerium unter der Leitung von Minister Pete Hegseth hat zunehmend kommerzielle KI-Modelle eingesetzt, um seine Kampfeinsätze zu modernisieren .
Einzelheiten darüber, welche konkreten Aufgaben Claude übernommen hat, sind geheim, aber es ist bekannt, dass die KI zur Zusammenfassung riesiger Mengen an Geheimdienstinformationen, zur Analyse von Satellitenbildern und möglicherweise zur Unterstützung komplexer Truppenbewegungen eingesetzt wird.
Der Einsatz fand in den frühen Morgenstunden des 3. Januar 2026 statt, als US-Spezialkräfte, darunter Delta-Force-Kommandos, Maduros befestigten Palast erfolgreich stürmten.dent Donald Trump beschrieb später, Maduro sei überrumpelt worden, bevor er einen stahlverstärkten Schutzraum erreichen konnte.
Die venezolanische Luftabwehr wurde ausgeschaltet und mehrere Militärstützpunkte während der Mission bombardiert. Maduro wurde auf ein US-Kriegsschiff und anschließend nach New York City gebracht, wo er sich derzeit wegen Drogenhandels, Terrorismus und Kokainimport vor einem Bundesgericht verantworten muss.
Claude wurde mit einem verfassungsrechtlichen Fokus auf Sicherheit entwickelt. Wie konnte es also bei einer tödlichen Militäroperation eingesetzt werden? Die Richtlinien von Anthropic zur öffentlichen Nutzung verbieten den Einsatz von Claude für Gewalt, Waffenentwicklung oder Überwachung.
Anthropic hat erklärt, die Nutzung seiner Tools umfassend zu überwachen und die Einhaltung seiner Richtlinien sicherzustellen. Die Partnerschaft mit Palantir ermöglicht es dem Militär jedoch, Claude in geheimen Umgebungen einzusetzen.
Quellen, die mit dem Sachverhalt vertraut sind, deuten darauf hin, dass die KI möglicherweise für nicht-tödliche Unterstützungsaufgaben eingesetzt wurde, etwa für die Übersetzung von Kommunikation oder die Logistikabwicklung. Dennoch drängt das US-Kriegsministerium derzeit KI-Unternehmen dazu, viele ihrer Standardbeschränkungen für militärische Zwecke aufzuheben.
Berichten zufolge erwägt die Trump-Regierung die Kündigung eines 200-Millionen-Dollar-tracmit Anthropologie, da das Unternehmen Bedenken hinsichtlich des Einsatzes seiner KI für autonome Drohnen oder Überwachungsprogramme geäußert hat. Verteidigungsminister Pete Hegseth erklärte: „Die Zukunft der amerikanischen Kriegsführung heißt KI“ und stellte klar, dass das Pentagon nicht mit Unternehmen zusammenarbeiten wird, die militärische Fähigkeiten einschränken.
Sichern Sie sich 8 % CASH bei Kryptozahlungen mit Ihrer COCA Visa Karte. Bestellen Sie Ihre kostenlose Karte.