- von Deepa Seetharaman und David Jeans und Jeffrey Dastin
WASHINGTON/SAN FRANCISCO, 30. Jan (Reuters) - Das Pentagon streitet mit dem Entwickler von künstlicher Intelligenz Anthropic über Schutzmaßnahmen , die die Regierung daran hindern würden , die Technologie des Unternehmens einzusetzen, um Waffen autonom zu zielen und die US-Inlandsüberwachung durchzuführen, so drei mit der Angelegenheit vertraute Personen gegenüber Reuters.
Die Gespräche stellen einen frühen Testfall dafür dar, ob das Silicon Valley, das sich nach jahrelangen Spannungen in der Gunst Washingtons befindet, Einfluss darauf nehmen kann, wie das US-Militär und die Geheimdienste immer leistungsfähigere KI auf dem Schlachtfeld einsetzen.
Nach ausführlichen Gesprächen im Rahmen eines Vertrages im Bewertung von bis zu 200 Millionen Dollar (link) sind das US-Verteidigungsministerium und Anthropic zum Stillstand gekommen, sagten sechs mit der Angelegenheit vertraute Personen unter der Bedingung der Anonymität.
Die Position des Unternehmens in Bezug auf die Nutzung seiner KI-Tools hat die Meinungsverschiedenheiten zwischen ihm und der Trump-Administration verschärft, über deren Einzelheiten bisher nicht berichtet wurde.
Ein Sprecher des Verteidigungsministeriums, das von der Trump-Administration in Kriegsministerium umbenannt wurde, reagierte nicht sofort auf Bitten um Stellungnahme.
Anthropic sagte, seine KI werde von der US-Regierung ausgiebig für nationale Sicherheitsaufgaben genutzt, und wir befinden uns in produktiven Gesprächen mit dem Kriegsministerium über Möglichkeiten zur Fortsetzung dieser Arbeit
Der Streit, der Anthropics Geschäft mit dem Pentagon gefährden könnte, kommt für das Unternehmen zu einem heiklen Zeitpunkt.
Das in San Francisco ansässige Startup bereitet sich auf einen eventuellen Börsengang vor. Außerdem hat es erhebliche Ressourcen für die Anwerbung von Unternehmen aus dem Bereich der nationalen Sicherheit der USA aufgewendet und versucht, eine aktive Rolle bei der Gestaltung der KI-Politik der Regierung zu spielen.
Anthropic ist einer der wenigen großen KI-Entwickler, die im vergangenen Jahr vom Pentagon Aufträge erhalten haben. Andere waren Google GOOGL.O von Alphabet, xAI von Elon Musk und OpenAI.
TARGETING VON WAFFEN
In ihren Gesprächen mit Regierungsvertretern äußerten Vertreter von Anthropic Bedenken, dass ihre Tools zum Ausspionieren von Amerikanern oder zur Unterstützung von Waffenzielen ohne ausreichende menschliche Aufsicht verwendet werden könnten, so einige der Insider gegenüber Reuters.
Das Pentagon hat sich über die Richtlinien des Unternehmens aufgeregt. In Übereinstimmung mit einem Memo des Ministeriums vom 9. Januar über die KI-Strategie haben Pentagon-Beamte argumentiert, dass sie in der Lage sein sollten, kommerzielle KI-Technologie unabhängig von den Nutzungsrichtlinien der Unternehmen einzusetzen, solange diese mit dem US-Recht übereinstimmen, so die Insider.
Dennoch wären die Pentagon-Beamten wahrscheinlich auf die Mitarbeit von Anthropic angewiesen. Die Modelle von Anthropic sind darauf trainiert, Schritte zu vermeiden, die zu Schaden führen könnten, und die Mitarbeiter von Anthropic wären diejenigen, die die KI für das Pentagon umrüsten würden, so einige der Insider.
Die Vorsicht von Anthropic hat schon früher zu Konflikten mit der Trump-Regierung geführt, Semafor hat (link) berichtet (link).
In einem Essay in seinem persönlichen Blog warnte Anthropic-CEO Dario Amodei diese Woche, dass KI die nationale Verteidigung "in jeder Hinsicht unterstützen sollte, außer in der, die uns unseren autokratischen Gegnern ähnlicher machen würde"
Amodei gehörte zu den Mitbegründern von Anthropic und kritisierte die tödlichen Schüsse auf US-Bürger, die in Minneapolis gegen die Durchsetzung von Einwanderungsgesetzen protestierten, was er in einem Beitrag auf X als "Horror" bezeichnete . (link)
Die Todesfälle haben bei einigen im Silicon Valley die Besorgnis über den Einsatz ihrer Tools durch die Regierung für potenzielle Gewalt verstärkt.