tradingkey.logo
tradingkey.logo

Ein US-Richter wirft dem Pentagon Vergeltungsmaßnahmen gegen Anthropic wegen dessen Meinungsfreiheit vor

CryptopolitanMar 25, 2026 8:00 AM

Ein Bundesrichter in San Francisco hat gerade ausgesprochen, was viele Leute ohnehin schon dachten: Die US-Regierung ging gegen Anthropic rein aus kleinlicher Boshaftigkeit vor, weil sich das Unternehmen gegen die Gräueltaten aussprach, die von seinem sogenannten Kriegsministerium begangen wurden.

Der Fall landete diese Woche vor einem kalifornischen Gericht, da Anthropic versucht, ein vollständiges Verbot seiner KI-Modelle in staatlichen Systemen zu verhindern.

Richter sagt, Regierungsmaßnahmen sähen aus wie eine Bestrafung der Anthropozentriker

Richterin Rita Lin brachte es im Gerichtssaal deutlich zum Ausdruck: „Es sieht nach einem Versuch aus, Anthropologie zuripple .“ Sie fügte hinzu, dass solche Aktionen „selbstverständlich einen Verstoß gegen den ersten Verfassungszusatz darstellen würden.“

Rita wies außerdem darauf hin, dass die Regierung nach der öffentlichen Bekanntgabe des Streits zwischen Anthropic und dem Pentagontronreagiert habe. Sie sagte, die Reaktion sei „ziemlich heftig“ gewesen. Weiterhin erklärte sie, die Reaktion scheine nicht mit einem tatsächlichen nationalen Sicherheitsbedürfnis zusammenzuhängen. Vor Gericht sagte sie, die Reaktion sei „nicht wirklich auf ein erklärtes nationales Sicherheitsbedürfnis zugeschnitten“

Rita erklärte daraufhin, die Regierung sei möglicherweise über das Notwendige hinausgegangen, weil sie Anthropic . Sie hat noch kein endgültiges Urteil gefällt, doch ihr Tonfall ließ keinen Zweifel an ihren Bedenken.

„Alle, einschließlich Anthropic, sind sich einig, dass es dem Kriegsministerium freisteht, Claude nicht mehr einzusetzen und sich nach einem KI-Anbieter mit weniger restriktiven Richtlinien umzusehen“, sagte Rita. „Ich sehe das aber nicht als Kernpunkt dieses Falls. Die zentrale Frage ist vielmehr, ob die Regierung gegen das Gesetz verstoßen hat.“

Die Klage wurde Anfang des Monats eingereicht. Anthropic fordert das Gericht auf, die Einstufung als Lieferkettenrisiko aufzuheben. Diese Einstufung führte zum Verbot und verhinderte die Nutzung der Modelle durch Regierungsbehörden. Der Streitpunkt ist nun die Frage, wie KI-Werkzeuge im militärischen Bereich eingesetzt werden sollten.

Michael Mongan, der Anthropic vertritt, erklärte vor Gericht, dass eine derartige Klage noch nie gegen ein US-amerikanisches Unternehmen erhoben worden sei. Er sagte: „So etwas hat es im Zusammenhang mit einem amerikanischen Unternehmen noch nie gegeben.“ Weiterhin führte er aus, dass die angewandte Rechtsgrundlage eng gefasst sei und in diesem Fall nicht anwendbar sei.

Das Pentagon fordert vollen Zugriff, während Anthropic sich gegen die militärische Nutzung seiner KI wehrt

Vor all dem arbeitete Anthropic eng mit der Regierung zusammen. Das Unternehmen hatte Verträge mit mehreren Bundesbehörden.

Das Unternehmen unterzeichnete im Juli einentracüber 200 Millionen Dollar mit dem Pentagon. Es war außerdem das erste KI-Labor, das seine Systeme innerhalb geheimer Netzwerke betrieb.

Im September änderte sich die Lage. Es begannen Gespräche über die Integration von Claude in die GenAI.mil-Plattform des Verteidigungsministeriums. Ab diesem Zeitpunkt geriet alles ins Stocken. Das Pentagon forderte uneingeschränkten Zugriff auf die Technologie für jede rechtmäßige Nutzung. Anthropic war damit nicht einverstanden.

Ein Regierungsanwalt namens Hamilton äußerte sich dazu vor Gericht. Er sagte, Anthropic verweigere nicht nur die Einhaltung dertrac. Er sagte:

„Anthropic verhält sich nicht einfach nur stur. Es weigert sich nicht einfach nur, dentraczuzustimmen. Vielmehr äußert das Unternehmen gegenüber dem Verteidigungsministerium Bedenken darüber, wie dieses seine Technologie in militärischen Missionen einsetzt.“

Gleichzeitig treibt Anthropic die technologische Entwicklung voran. Claude kann nun die Kontrolle über den Computer eines Nutzers übernehmen und Aufgaben erledigen. Nutzer können Anfragen von ihrem Smartphone senden, und das System kümmert sich darum. Es kann Apps öffnen, Browser nutzen und Tabellenkalkulationen ausfüllen.

In einer Demo ist ein Benutzer in Verzug. Er bittet Claude, eine Präsentation als PDF zu exportieren und an eine Besprechungseinladung anzuhängen. Claude erledigt dies selbstständig.

Dieses Update positioniert Anthropic im Wettlauf um die Entwicklung von KI-Agenten, die ohne ständige Eingaben funktionieren. Dieser Wettlauf hat durch von OpenClaw in diesem Jahr deutlich an Fahrt aufgenommen. OpenClaw verbindet Modelle von OpenAI und Anthropic. Nutzer können Aufgaben über Apps wie WhatsApp oder Telegram senden. Die Anwendung läuft auf dem Gerät des Nutzers und kann auf lokale Dateien zugreifen.

Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an .

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Empfohlene Artikel

KeyAI