
Der Wettstreit zwischen KI-Unternehmen hat die Tech-Welt und die amerikanische Politik erreicht. Anthropic kündigte am Donnerstag an, 20 Millionen Dollar in die Wahlkämpfe der diesjährigen Zwischenwahlen zu investieren.
Das Geld fließt an Public First Action, eine neu gegründete Gruppe, die sich dafür einsetzt, dass die Bundesstaaten weiterhin die Befugnis haben, KI-Regeln zu erlassen. Dadurch gerät Anthropic in Konflikt mit der politischen Organisation von OpenAI und dem Weißen Haus unter Trump, das die KI-Politik landesweit in Washington kontrollieren will.
„Die Unternehmen, die KI entwickeln, haben die Verantwortung, dafür zu sorgen, dass die Technologie dem Gemeinwohl dient und nicht nur ihren eigenen Interessen“, sagte in der Ankündigung am Donnerstag.
Die Gruppe unterstützt Kandidaten, die sich gegen Bestrebungen wehren, den Bundesstaaten ihre Zuständigkeit für KI-Technologien zu entziehen. Eine der ersten Nutznießerinnen ist Marsha Blackburn, die republikanische Kandidatin für das Amt des Gouverneurs von Tennessee. Sie kämpfte gegen Bundesgesetze, die es den Landesparlamenten untersagt hätten, eigene KI-Gesetze zu verabschieden.
Public First Action steht vor großen Herausforderungen gegenüber Leading the Future, der konkurrierenden Gruppe um OpenAI-dent Greg Brockman und den Technologieinvestor Marc Andreessen. Diese Initiative hat seit ihrem Start im August 2025 bereits 125 Millionen US-Dollar eingeworben. Andreessens Risikokapitalgesellschaft A16Z ist an OpenAI beteiligt, was den Kampf um die Finanzierung zwischen den rivalisierenden KI-Entwicklern noch persönlicher macht.
dent Trump unterzeichnete im Dezember eine Anordnung, die die von Anthropic angestrebten Landesgesetze unmittelbar gefährdet. Die Anordnung weist Bundesbehörden an, einen nationalen Rahmen für Künstliche Intelligenz mit minimalen Regeln zu entwickeln und diesen dann zu nutzen, um strengere Landesgesetze außer Kraft zu setzen.
Trumps Anordnung geht noch weiter: Sie sieht die Einrichtung einer Task Force im Justizministerium vor, die speziell darauf ausgerichtet ist, staatliche KI-Gesetze vor Gericht anzufechten. Staaten mit Regelungen, die Trump als zu streng erachtet, könnten Bundesmittel verlieren. Sein KI-Berater David Sacks bezeichnete das Gesetz von Colorado bereits als „wahrscheinlich das übertriebenste“ aller geltenden Gesetze.
In mehreren US-Bundesstaaten treten 2026 entsprechende Regelungen in Kraft oder befinden sich derzeit im Gesetzgebungsverfahren. Colorado verschob sein KI-Gesetz nach Druck bis zum 30. Juni 2026. Das Gesetz verpflichtet Unternehmen, die „risikoreiche“ KI-Systeme entwickeln, jedoch weiterhin dazu, Diskriminierung in ihren Algorithmen zu verhindern. Kalifornien verabschiedete 2025 sieben KI-Gesetze, wobei das „Transparency in Frontier AI Act“ am 1. Januar 2026 in Kraft trat. Texas verbot mit dem „Responsible AI Governance Act“ den Einsatz von KI für bestimmte Zwecke.
Cryptopolitan berichtete bereits , dass Anthropic im vergangenen Jahr 2 Milliarden US-Dollar bei einer Bewertung von 60 Milliarden US-Dollar einnahm, gefolgt von einer massiven Investition von 15 Milliarden US-Dollar durch Microsoft und Nvidia, die den Wert auf rund 350 Milliarden US-Dollar steigerte. Für diese Investoren steht nun Milliardeninvestition auf dem Spiel, die von der zukünftigen Regulierung von KI abhängen.
In einem Blogbeitrag vom Donnerstag übte das Unternehmen indirekt Kritik an OpenAI, ohne das Unternehmen direkt zu nennen, und warnte davor, dass „umfangreiche Ressourcen an politische Organisationen geflossen sind, die sich gegen“ Bemühungen zur Verbesserung der Sicherheit von KI stellen.
Wenn von Public First Action unterstützte Kandidaten genügend Sitze gewinnen, könnten sie im Kongress Gesetzesentwürfe zur Aufhebung des Bundesrechts blockieren. Das würde den Ansatz der Einzelstaaten zumindest vorübergehend aufrechterhalten.
Die Rivalität zwischen Anthropic und OpenAI reicht weit über die Finanzierungslage hinaus. Anthropic wurde von den Geschwistern Dario und Daniela Amodei gegründet, nachdem diese OpenAI aus Sicherheitsgründen verlassen hatten. Das Unternehmen hat seine gesamtedentdarauf aufgebaut, KI-Technologie sicherer zu machen. OpenAI und seine Geldgeber bevorzugen hingegen weniger strenge Regeln, die Innovationen beschleunigen.
Diese philosophische Kluft spiegelt sich nun in Wahlkampfspenden und Lobbyarbeit wider. OpenAI bat Trump Anfang des Jahres, staatliche KI-Regulierungen zu blockieren und im Gegenzug der Regierung Zugang zu seinen Modellen zu gewähren. Das Unternehmen argumentierte, dass fragmentierte Landesgesetze die Führungsrolle der USA im Bereich KI gefährden würden.
Doch die Chancen stehen schlecht. Durch die sechsfache Finanzierungsüberlegenheit von Leading the Future verfügt OpenAI über deutlich mehr Geld für Werbung, Personal und operative Einsätze. Trumps Präsidialerlass gibt Bundesbehörden zudem die Möglichkeit, Landesgesetze sofort anzufechten, ohne auf den Kongress warten zu müssen.
Der Streit offenbart eine tiefere Spaltung im Silicon Valley hinsichtlich des Umfangs der KI-Regulierung. Unternehmen wie Anthropic, gegründet von ehemaligen OpenAI-Mitarbeitern, die aufgrund von Sicherheitsbedenken das Unternehmen verließen, befürworten im AllgemeinentronRegeln, um Schäden durch KI zu verhindern. OpenAI und seine Unterstützer hingegen bevorzugen eine weniger strenge Regulierung, die Innovationen beschleunigt.
Wähler in Bundesstaaten, die Gesetze zur Künstlichen Intelligenz (KI) verabschiedet haben, können im Herbst bei der Stimmabgabe im Wesentlichen entscheiden, welche Vision sie bevorzugen. Ihre Entscheidung könnte darüber bestimmen, ob die KI-Entwicklung durch ein Flickwerk einzelstaatlicher Regelungen oder durch ein einheitliches Bundessystem mit weniger Einschränkungen erfolgt.
Erreichen Sie die klügsten Köpfe hinter Krypto-Investoren und -Entwicklern, indem Sie in Cryptopolitan