tradingkey.logo
tradingkey.logo

Anthropic verklagt die Trump-Regierung wegen zweifelhafter Behauptungen, während der Streit im Pentagon weiter eskaliert

CryptopolitanMar 9, 2026 10:29 PM

Anthropic hat am Montag den Streit mit der Trump-Regierung vor Gericht gebracht und damit eine neue Front in einem der hässlichsten Auseinandersetzungen der KI-Branche eröffnet. Das Unternehmen klagte, nachdem die Regierung es als Sicherheitsrisiko eingestuft und die Kündigung seinertracangestrebt hatte.

Mit dieser Entscheidung wurde Anthropic in eine Kategorie eingeordnet, die üblicherweise mit feindlichen ausländischen Akteuren in Verbindung gebracht wird, und nicht in eine US-amerikanische Firma, die KI-Modelle sowohl für Regierungs- als auch für kommerzielle Zwecke entwickelt.

In ihrer Klage, die beim Northern District of California eingereicht wurde, argumentierte Anthropic, dass die Regierung rechtswidrig gehandelt und die Macht des Bundes als Strafmaßnahme missbraucht habe, nachdem sich das Unternehmen gegen die Art und Weise gewehrt hatte, wie das Pentagon KI einsetzen wollte.

In der Klage wurden das Verteidigungsministerium, Verteidigungsminister Pete Hegseth, Finanzminister Scott Bessent, Außenminister Marco Rubio und Handelsminister Howard Lutnick namentlich genannt.

Anthropic erklärte vor Gericht, dass die Maßnahmen der Regierung eines der am schnellsten wachsenden privaten KI-Unternehmen des Landes gefährden und ein gefährliches Beispiel für andere Unternehmen darstellen könnten, die mit Washington nicht einverstanden sind. Das Unternehmen beantragte, dass das Gericht die Maßnahmen für rechtswidrig erklärt.

Das Weiße Haus reagierte umgehend. Eine Sprecherin erklärte: „dent Trump wird niemals zulassen, dass ein radikal-linkes, wokes Unternehmen unsere nationale Sicherheit gefährdet, indem es vorschreibt, wie das größte und mächtigste Militär der Welt operiert.“

Forscher unterstützen Anthropic, nachdem die Klage den Streit im Silicon Valley ausweitet

Kurz nach Einreichung der Klage reichten 37 KI-Forscher der Konkurrenten OpenAI und Google eine Stellungnahme ein, in der sie das Gericht aufforderten, Anthropic Recht zu geben. Diese Unterstützung verdeutlichte, wie weit sich dieser Konflikt über ein einzelnes Unternehmen und einen einzelnentrachinaus ausgedehnt hat.

In ihrer Eingabe warnten sie davor, dass die Bestrafung eines führenden US-amerikanischen KI-Unternehmens wegen Verstößen gegen Sicherheitsbestimmungen die Position des Landes im Bereich der künstlichen Intelligenz insgesamt beeinträchtigen könnte.

Die Forscher schrieben: „Wenn dieser Versuch, eines der führenden US-amerikanischen KI-Unternehmen zu bestrafen, zugelassen wird, wird dies zweifellos Folgen für die industrielle und wissenschaftliche Wettbewerbsfähigkeit der Vereinigten Staaten auf dem Gebiet der künstlichen Intelligenz und darüber hinaus haben.“

Dieses Schreiben erhöhte den Druck auf einen Fall, der bereits in der gesamten Technologiebranche für Aufsehen gesorgt hatte.

Der eigentliche Streitpunkt ist die Frage, welche Regeln für den Einsatz von KI-Systemen durch das Pentagon gelten sollen. Während dertracmit dem Verteidigungsministerium forderte Anthropic klare Garantien, dass seine Tools nicht für die Massenüberwachung im Inland oder für autonome Waffensysteme eingesetzt würden.

Das Pentagon lehnte diesen Ansatz ab. Seine Position war klar: Es hält sich an das Gesetz, wird solche Dinge nicht tun, und das Unternehmen solle darauf vertrauen, dass das Militär KI in jeder rechtmäßigen Situation einsetzt. Diese Meinungsverschiedenheit trug zum Scheitern der formellen Verhandlungen bei, die das Pentagon inzwischen für beendet erklärt hat.

Der Streit weitete sich auch auf Politik und Handel aus. Die beiden Seiten gerieten wegen Trumps Entscheidung, den Export von KI-Chips nach China zu erlauben, aneinander. Zudem gab es Spannungen aufgrund der Verbindungen von Anthropic zu Organisationen, die Spenden an demokratische Projekte geleistet hatten.

Diese Probleme machten das Unternehmen zu einem Hauptziel für Trumps Verbündete, obwohl der Streit ihm gleichzeitig mehr Unterstützung von einigen Kunden und Partnern einbrachte.

Trump und Hegseth treiben das Vorgehen voran, während Anthropic um den Erhalt eines 200-Millionen-Dollar-trackämpft

Der Konflikt verschärfte sich am 27. Februar erheblich, als Hegseth ankündigte, Anthropic als Lieferkettenrisiko für das Pentagon einzustufen. Dieses Instrument wird normalerweise für Unternehmen eingesetzt, die Verbindungen zu ausländischen Gegnern haben.

Im Rahmen dieses Verfahrens müssen hochrangige Pentagon-Beamte nachweisen, dass eine tatsächliche Sicherheitsbedrohung besteht. Hegseth und andere Beamte argumentierten, dass die Weigerung von Anthropic, dem Militär den Einsatz seiner KI in allen rechtmäßigen Fällen zu gestatten, selbst ein Risiko darstelle.

Ihr Argument lautete, dass ein privates Unternehmen nicht kontrollieren können sollte, wie die Streitkräfte kritische Technologien einsetzen, da ein Unternehmen den Zugriff später während des Einsatzes abschalten oder die Einstellungen ändern könnte.

Am selben Tag ordnete Trump den Bundesbehörden an, die Nutzung von Claude einzustellen, und gab ihnen sechs Monate Zeit, auf andere KI-Modelle umzusteigen. Anthropic griff diesen Punkt in seiner Klage auf und argumentierte, dass die sechsmonatige Frist zeige, wie wichtig seine Systeme für die Regierung seien.

Das Unternehmen erklärte außerdem, Trump habe die erforderlichen rechtlichen Schritte zur Kündigung einestracnicht eingehalten. Der Vertrag mit dem Verteidigungsministerium hatte einen Wert von bis zu 200 Millionen Dollar.

Der finanzielle Schaden könnte über direkte Regierungsaufträge hinausgehen. Kunden, die auch mit dem Pentagon zusammenarbeiten, müssen nun möglicherweise nachweisen, dass sie Claude nicht für Aktivitäten des Verteidigungsministeriums eingesetzt haben.

Das könnte Anthropics Geschäft auch unabhängig vom eigentlichentracbeeinträchtigen. Microsoft und Google, beide Investoren oder Partner, erklärten jedoch, sie würden weiterhin mit dem Unternehmen an kommerziellen Projekten zusammenarbeiten, die nicht das Pentagon betreffen.

Die Befürworter von Anthropic sagen, dass die Argumentation der Regierung aus einem weiteren Grund wackelig aussieht: Das Pentagon hat Claude bei Operationen im Iran eingesetzt, und bis vor kurzem war Anthropic der einzige KI-Modellentwickler, der für geheime Umgebungen zugelassen war.

Eine Sprecherin von Anthropic erklärte: „Die Beantragung einer gerichtlichen Überprüfung ändert nichts an unserem langjährigen Engagement, KI zum Schutz unserer nationalen Sicherheit einzusetzen. Es ist jedoch ein notwendiger Schritt, um unser Unternehmen, unsere Kunden und unsere Partner zu schützen.“ Sie fügte hinzu: „Wir werden weiterhin alle Möglichkeiten zur Lösung ausschöpfen, einschließlich des Dialogs mit der Regierung.“

Verbessern Sie Ihre Strategie mit Mentoring und täglichen Ideen – 30 Tage kostenloser Zugang zu unserem Trading-Programm

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Empfohlene Artikel

KeyAI