
Das Pentagon und Anthropic liefern sich einen direkten Streit darüber, wie künstliche Intelligenz vom US-Militär eingesetzt werden kann.
Im Zentrum des Konflikts stehen Schutzmaßnahmen, die die Regierung daran hindern sollen, KI eigenständig zur Zielerfassung von Waffensystemen oder zur Überwachung innerhalb der Vereinigten Staaten einzusetzen. Die Meinungsverschiedenheit betrifft einentracmit einem Wert von bis zu 200 Millionen US-Dollar und hat die Verhandlungen zum Stillstand gebracht.
Dieser Streit ist zu einem ersten Test dafür geworden, wie viel Einfluss das Silicon Valley nach jahrelangen Spannungen tatsächlich noch in Washington hat.
, tron KI-Systeme im Kampf und in Sicherheitsaufgaben einzusetzen
Nach langen Verhandlungen stecken das US-Verteidigungsministerium und Anthropic fest. Sechs mit den Gesprächen vertraute Personen gaben an, dass sich keine der beiden Seiten bewegt habe. Der Konflikt hat sich unterdent Donald Trumps zweiter Amtszeit verschärft, und Meinungsverschiedenheiten innerhalb der Regierung treten nun öffentlich zutage.
In einer Stellungnahme erklärte Anthropic, seine Technologie werde „umfangreich für nationale Sicherheitsmissionen der US-Regierung eingesetzt, und wir befinden uns in konstruktiven Gesprächen mit dem Kriegsministerium über Möglichkeiten zur Fortsetzung dieser Zusammenarbeit.“ Gleichzeitig äußerten Unternehmensvertreter gegenüber Beamten ihre Besorgnis, die Systeme könnten zur Spionage gegen Amerikaner oder zur Steuerung von Zielen ohne ausreichende menschliche Kontrolle missbraucht werden.
Die Pentagon-Führung zurück . Sie verwies auf ein Memo vom 9. Januar zur KI-Strategie, demzufolge das Militär kommerzielle KI-Systeme frei nutzen dürfe, solange das Gesetz eingehalten werde. Offizielle Stellen betonten, dass private Regelungen nicht über Entscheidungen auf dem Schlachtfeld entscheiden sollten.
Dennoch benötigt das Pentagon Anthropic weiterhin für seine Weiterentwicklung. Die Modelle sind so konstruiert, dass potenziell schädliche Aktionen vermieden werden. Die Ingenieure des Unternehmens müssten die Systeme anpassen, bevor das Militär sie wie gewünscht einsetzen könnte.
Die Pattsituation gefährdet das Verteidigungsgeschäft von Anthropic in einer heiklen Phase. Das in San Francisco ansässige Startup bereitet sich auf einen bevorstehenden Börsengang vor. Es hat hohe Summen investiert, um Aufträge im Bereich der nationalen Sicherheit der USA zu gewinnen und die KI-Politik der Bundesregierung von innen heraus mitzugestalten.
Anthropic gehört auch zu den wenigen Unternehmen, die das Pentagon letztes Jahr ausgewählt hat. Zu den anderen zählen Google, Elon Musks xAI und OpenAI . Diese Unternehmen stehen nun im Zentrum der KI-Pläne des US-Militärs.
Die Vorsicht von Anthropic hat bereits zuvor zu Spannungen mit der Trump-Regierung geführt. In einem Blogbeitrag warnte CEO Dario Amodei diese Woche, dass KI die nationale Verteidigung „in jeder Hinsicht unterstützen sollte, außer in solchen, die uns unseren autokratischen Gegnern ähnlicher machen würden“
Dario hat sich auch kritisch über staatliche Gewalt im eigenen Land geäußert. Nach den tödlichen Schüssen auf US-Bürger während Protesten gegen Einwanderung in Minneapolis bezeichnete er die Todesfälle in einem Beitrag auf X als „Grauen“.
Die klügsten Krypto-Köpfe lesen bereits unseren Newsletter. Lust auf mehr? Dann schließen Sie sich ihnen an .