
Die Trump-Regierung arbeitet an einer Exekutivverordnung gegen Anthropic, das in San Francisco ansässige KI-Startup hinter Claude, während gleichzeitig ein Bundesverfahren gegen ein bestehendes staatliches Verbot des Unternehmens vor Gericht anhängig ist.
Quellen, die mit der Angelegenheit vertraut sind, berichten, dass Beamte des Weißen Hauses die entsprechende Anordnung vorbereiten. Der Schritt ist bemerkenswert, da er erfolgt, während die Klage von Anthropologie gegen frühere staatliche Beschränkungen noch anhängig ist. Das Unternehmen hatte geklagt, nachdem es nach eigenen Angaben von der Vergabe vontracausgeschlossen worden war.
Auf die Frage, ob die Regierung über die Exekutivanordnung hinaus weitere Schritte plane, verneinte ein Beamter des Weißen Hauses dies nicht. Er sagte gegenüber Axios, jede politische Ankündigung werde direkt von Trump kommen, und die Diskussion über mögliche Exekutivanordnungen sei reine Spekulation
Der Streit trac auf Verteidigungsminister Pete Hegseth zurück, der Anthropic letzten Monat nach dem trac der Vertragsverhandlungen mit dem Pentagon „Lieferkettenrisiko“ trac , Lieferanten oder Partner, der mit dem US-Militär Geschäfte tätigt, gestattet, kommerzielle Aktivitäten mit Anthropic durchzuführen.“
Anthropic behauptet vor Gericht, das Verbot sei eine Vergeltungsmaßnahme für die Weigerung von CEO Dario Amodei, den Einsatz von Claude für Massenüberwachung oder autonome Waffensysteme zu gestatten.
Die Anwälte des Unternehmens betonen, dass der Schaden bereits sichtbar sei. Bei einer Gerichtsverhandlung am vergangenen Dienstag erklärte Anwalt Michael Mongan, die Aufnahme auf die schwarze Liste füge Anthropic jeden Tag „echten und irreparablen Schaden“ zu.
Die Kunden würden sich zurückziehen, sagte er, und die Regierung habe sich direkt an sie gewandt, um sie zum Wechsel zu anderen KI-Unternehmen zu bewegen. „Wir haben Universitätssysteme und B2B-Unternehmen, die zu konkurrierenden KI-Unternehmen gewechselt sind“, sagte Mongan vor Gericht. „Die Beklagten haben aktiv Kontakt zu unseren Kunden aufgenommen und sie unter Druck gesetzt, die Zusammenarbeit mit Anthropic zu beenden und zu anderen KI-Unternehmen zu wechseln.“
Gerichtsdokumente beziffern den Schaden. Anthropic hat bisher über 5 Milliarden US-Dollar Umsatz generiert und 10 Milliarden US-Dollar in Modelltraining und Rechenleistung investiert. Das Unternehmen warnte, dass nun mindestens Hunderte Millionen US-Dollar Umsatz im Jahr 2026 gefährdet seien. Im schlimmsten Fall könnten es mehrere Milliarden sein.
trac kündigen können . Amazon, Alphabet und Microsoft haben erklärt, Claude vorerst weiterhin anzubieten.
Der Kampf ist von weit größerer Bedeutung als Anthropic. Die gesamte KI-Lieferkette, einschließlich einiger der größten Namen der Technologiebranche, ist mit dem Schicksal einiger weniger Unternehmen verstrickt.
Microsoft gab letzten Monat bekannt, dass 45 Prozent seines Auftragsbestands von 625 Milliarden US-Dollar auf OpenAI zurückzuführen sind. OpenAI selbst hat einen Vertrag über 300 Milliarden US-Dollar mit Oracle abgeschlossen. Allein diese beiden Verträge machen etwa zwei Drittel der rund 800 Milliarden US-Dollar aus, die OpenAI laut Schätzungen von HSBC in Chips und Rechenzentren investieren wird. Der Rest geht an Unternehmen wie Nvidia, AMD, Amazon und CoreWeave.
Die Ausgabenpläne von Anthropic belaufen sich ebenfalls auf Milliarden, und die Pattsituation im Pentagon wirft nun die Frage auf, ob diese Pläne weiterverfolgt werden können.
Der Zeitpunkt ist besonders ungünstig, da Anthropic Berichten zufolge noch in diesem Jahr an die Börse gehen will. Ein langwieriger Streit mit der Regierung ist sicherlich nicht die ideale Ausgangslage für ein IPO. Trotz aller Bedenken gilt jedoch: Sollte es für Anthropic katastrophal laufen, würde das Unternehmen wahrscheinlich vor einem Zusammenbruch übernommen werden.
Am Mittwoch gab Anthropic außerdem die Gründung eines neuen internen Forschungsinstituts namens Anthropic Institute , das aus dem Zusammenschluss dreier bestehender Teams hervorgeht. Das Institut wird untersuchen, wie sich fortschrittliche KI auf Arbeitsplätze und Wirtschaft auswirkt, ob sie die Welt sicherer oder gefährlicher macht, wie die in KI-Systeme integrierten Werte auf den Menschen abfärben könnten und ob der Mensch angesichts der zunehmenden Leistungsfähigkeit der Technologie noch sinnvolle Kontrolle behalten kann.
Die Nachricht ging mit einer Umstrukturierung an der Spitze einher. Jack Clark, einer der Mitbegründer des Unternehmens, tritt nach über fünf Jahren als Leiter der Abteilung für öffentliche Politik zurück und wird künftig das neue Institut als Leiter des Bereichs Gemeinwohl führen. Seine Nachfolgerin im politischen Bereich ist Sarah Heck, die zuvor die Abteilung für Außenbeziehungen leitete.
Das Politikteam, das sich bis 2025 verdreifacht hat, wird weiterhin an nationalen Sicherheitsfragen, KI-Infrastruktur, Energie und dem arbeiten, was Anthropic als demokratische Führung im Bereich der KI bezeichnet.
Das Unternehmen plant außerdem die Eröffnung eines Büros in Washington, D.C. Clark erklärte, der Umstieg sei auf das rasante Tempo des Wandels im Bereich der KI zurückzuführen. Rückblickend auf seine Arbeit im vergangenen Jahr stellte er fest, dass er mehr Zeit mit Gesetzesvorhaben wie dem kalifornischen SB 53 verbracht hatte als mit den KI-Forschungsfragen, die ihm am wichtigsten waren. Er geht davon aus, dass leistungsstarke KI, die in der Branche oft als AGI bezeichnet wird, bis Ende 2025 oder Anfang 2027 verfügbar sein wird.
Auf die Frage, ob es sinnvoll sei, langfristige Forschung aufzubauen, solange die kurzfristigen Einnahmen des Unternehmens gefährdet seien, antwortete Clark, er habe keine Bedenken. „Vertrauen ist der Schlüssel zum Erfolg“, sagte er. „Anthropic hat seine Investitionen in Sicherheit sowie die Untersuchung und Berichterstattung über die Sicherheit seiner Systeme schon immer als Gewinnquelle und nicht als Kostenfaktor betrachtet.“
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden .