
Caitlin Kalinowski, die ehemalige Leiterin der Robotikabteilung von OpenAI, ist nach etwas mehr als einem Jahr im Unternehmen zurückgetreten. Kalinowski begründete ihren Rücktritt mit der Befürchtung, das US-Militär könne die KI-Tools des Unternehmens zur Überwachung im Inland und für automatisierte, zielgerichtete Systeme in US-Waffen einsetzen.
Caitlin Kalinowski, die Leiterin der Hardware- und Robotikentwicklung bei OpenAI, hat das KI-Unternehmen nach einer Amtszeit seit November 2024 verlassen. Kalinowski gab ihren Rücktritt am 7. März bekannt und begründete dies mit Bedenken hinsichtlich eines im Februar zwischen OpenAI und dem US-Verteidigungsministerium getroffenen Abkommens.
Ich habe OpenAI verlassen. Mir liegt das Robotik-Team und unsere gemeinsame Arbeit sehr am Herzen. Diese Entscheidung fiel mir nicht leicht. Künstliche Intelligenz spielt eine wichtige Rolle für die nationale Sicherheit. Doch die Überwachung von Amerikanern ohne richterliche Kontrolle und die tödliche Autonomie ohne menschliche Genehmigung sind…
– Caitlin Kalinowski (@kalinowski007) 7. März 2026
Laut Kalinowski wurde ihr Rücktritt durch die Absicht des US-Verteidigungsministeriums ausgelöst, KI-Werkzeuge und -Fähigkeiten zur Überwachung von US-Bürgern ohne richterliche Kontrolle einzusetzen. Die ehemalige OpenAI-Mitarbeiterin schrieb auf X, dass KI eine entscheidende Rolle für die nationale Sicherheit spiele.
Sie erklärte, das US-Verteidigungsministerium beabsichtige, KI für Überwachung und autonome Waffensysteme einzusetzen – eine Entscheidung, mit der sie nicht einverstanden sei. Ihre Entscheidung sei „prinzipiell und nicht personenbezogen“ gewesen, sagte sie, und sie sei stolz auf die Leistungen des Teams bei OpenAI während ihrer Zeit im Unternehmen.
Im Februar intensivierte das US-Pentagon die Gespräche mit führenden KI-Unternehmen über den Einsatz automatisierter Modelle in klassifizierten Systemen. Cryptopolitan berichtete , dass das Pentagon Gespräche mit Anthropic und OpenAI vorantreibt, um KI-Tools in klassifizierte Militärnetzwerke zu integrieren.
Emil Michael, der Chief Technology Officer des Pentagons, sagte bei einem Treffen im Weißen Haus mit führenden Technologieexperten, dass das Militär wolle, dass KI-Modelle sowohl in klassifizierten als auch in unklassifizierten Netzwerken ohne Einschränkungen oder Beschränkungen funktionieren.
Die Verhandlungen zwischen der US-Regierung und Anthropic sind gescheitert, da die Unternehmensführung unnachgiebig darauf bestanden hat, dass ihre Technologie nicht für Überwachungseinsätze im Inland und für autonome Waffensysteme eingesetzt wird. Das Unternehmen defi sich Ende Februar dem Ultimatum des Pentagons, die Sicherheitsvorkehrungen für die KI aufzuheben.
Der CEO von Anthropic, Dario Amodei, blieb standhaft und weigerte sich, die Technologie des Unternehmens für Militäreinsätze freizugeben. Daraufhin wies Trump Ende Februar alle Bundesbehörden an, die Nutzung der Anthropic-Technologie einzustellen.
Das Verteidigungsministerium schloss einen Vertrag mit OpenAI, der seither Kritik hervorgerufen hat. Sam Altman merkte an , der Vertrag wirke recht opportunistisch und stellte klar, dass das Unternehmen Beschränkungen für den Einsatz seiner KI-Tools in militärischen Operationen auferlegt habe.
Kalinowski wirft dem Unternehmen jedoch vor, die Ankündigung sei überhastet und ohne die notwendigen Kontrollmechanismen erfolgt. Sie fügte hinzu, ihr Rücktritt beruhe auf Bedenken hinsichtlich der Unternehmensführung, die zu wichtig seien, um sie zu überstürzen.
OpenAI bestätigte Kalinowskis Ausscheiden in einer Stellungnahme, betonte aber gleichzeitig, dass die Verbindungen des Unternehmens zu Verteidigungsministerien den Weg für den verantwortungsvollen Einsatz von KI-Werkzeugen im Bereich der nationalen Sicherheit ebnen.
Im Februar kündigte , eine angepasste Version von ChatGPT auf der sicheren KI-Unternehmensplattform GenAI.mil des US-Kriegsministeriums einzusetzen. Das Unternehmen betonte, dass seine Kooperationen mit Militär- und Verteidigungsbehörden auf der entscheidenden Rolle von KI beim Schutz der Bevölkerung und der Konfliktvermeidung beruhen.
Die Spannungen zwischen der US-Regierung und KI-Unternehmen hinsichtlich der militärischen KI-Entwicklung haben auch dazu geführt, dass mehr Forscher KI-Unternehmen verlassen. Einer der führenden Forscher von Anthropic kündigte mit der Aussage: „Die Welt ist in Gefahr.“
Ein weiterer Forscher von OpenAI kündigte ebenfalls seine Stelle mit der Begründung, die KI-Technologie habe eine Art der Kontrolle über den Menschen, die die Entwickler weder verstehen noch verhindern könnten.
Zoë Hitzig, eine ehemalige Forscherin bei OpenAI, verließ das Unternehmen ebenfalls am 11. Februar. Sie kündigte am selben Tag, an dem OpenAI bekannt gab, mit dem Testen von Werbung auf seiner LLM ChatGPT-Plattform begonnen zu haben. Sie behauptete, das KI-Unternehmen begehe denselben Fehler wie Facebook.
Hitzig äußerte ihre Bedenken, dass die einzigartige Rolle von ChatGPT als Vertrauter für zutiefst persönliche Offenbarungen (medizinische Ängste, Beziehungsprobleme, religiöse Überzeugungen) das Targeting von Werbung besonders riskant mache.
Treten Sie einer Premium- Kryptohandels- Community 30 Tage lang kostenlos bei – normalerweise 100 $/Monat.