
Das Pentagon übt erheblichen Druck auf große Unternehmen im Bereich der künstlichen Intelligenz aus, dem US-Militär Zugang zu ihren Tools innerhalb geheimer Systeme zu gewähren.
Die Verantwortlichen fordern nicht nur grundlegenden Zugriff. Sie wollen, dass diese KI-Modelle ohne die üblichen Beschränkungen funktionieren, die Unternehmen ihren Nutzern auferlegen.
Während eines Treffens im Weißen Haus am Dienstag teilte Emil Michael, der Chief Technology Officer des Pentagons, den führenden Technologieexperten mit, dass das Militär diese KI-Modelle sowohl in klassifizierten als auch in unklassifizierten Netzwerken einsetzen wolle.
Ein Beamter, der den Gesprächen nahestand, sagte angeblich, die Regierung sei nun entschlossen, sogenannte „KI-Fähigkeiten der Spitzenklasse“ auf allen Ebenen des militärischen Einsatzes zu etablieren.
Diese Initiative ist Teil umfassenderer Diskussionen darüber, wie KI in zukünftigen Kriegen eingesetzt wird. Schon jetzt prägen Drohnenschwärme, Roboter und unaufhörliche Cyberangriffe Kriege. Das Pentagon will nicht ins Hintertreffen geraten, während die Technologiebranche die Grenzen des Zulässigen neu definiert.
Aktuell bieten die meisten Unternehmen, die mit dem Militär zusammenarbeiten, abgespeckte Versionen ihrer Modelle an. Diese laufen ausschließlich auf offenen, nicht klassifizierten Systemen für administrative Aufgaben. Anthropic bildet hier die Ausnahme.
Claude, der Chatbot von Anthropic, kann in bestimmten vertraulichen Bereichen eingesetzt werden, jedoch nur über Drittanbieterplattformen. Auch dann müssen sich staatliche Nutzer an die Richtlinien von Anthropic halten.
Das Pentagon strebt direkten Zugriff auf hochsensible, geheime Netzwerke an. Diese Systeme werden unter anderem für die Missionsplanung und die Zielerfassung genutzt. Wann und wie Chatbots wie Claude oder ChatGPT in diesen Netzwerken installiert werden sollen, ist noch unklar, aber das ist das Ziel.
Offizielle Stellen glauben, dass KI helfen kann, riesige Datenmengen zu verarbeiten und Entscheidungsträgern schnell zur Verfügung zu stellen. Doch wenn diese Tools falsche Informationen liefern – und das tun sie –, könnten Menschen sterben. Forscher warnen genau davor.
OpenAI hat diese Woche einen Vertrag mit dem Pentagon abgeschlossen. ChatGPT wird nun in einem unklassifizierten Netzwerk namens genai.mil eingesetzt. Dieses Netzwerk erreicht bereits über 3 Millionen Mitarbeiter des Verteidigungsministeriums.
Im Rahmen der Vereinbarung hob OpenAI viele seiner üblichen Nutzungsbeschränkungen auf. Es bestehen zwar weiterhin einige Schutzmechanismen, aber das Pentagon hat seine Forderungen größtenteils erfüllt bekommen.
Ein Unternehmenssprecher erklärte, dass jede Ausweitung auf die Nutzung als Verschlusssache eine neue Vereinbarung erfordern würde. Google und Elon Musks xAI haben in der Vergangenheit bereits ähnliche Vereinbarungen getroffen.
Die Gespräche mit Anthropologie verliefen nicht so einfach. Führungskräfte des Unternehmens teilten dem Pentagon mit, dass sie nicht möchten, dass ihre Technologie fürmatic Zielerfassung oder Spionage gegen Personen innerhalb der USA eingesetzt wird.
Obwohl Claude bereits in einigen nationalen Sicherheitsmissionen eingesetzt wird, wehren sich die Führungskräfte des Unternehmens. In einer Stellungnahme erklärte ein Sprecher:
„Anthropic hat sich dem Schutz der amerikanischen Führungsrolle im Bereich der KI verschrieben und unterstützt die US-Regierung bei der Abwehr ausländischer Bedrohungen, indem es unseren Soldaten Zugang zu den fortschrittlichsten KI-Fähigkeiten verschafft.“
Sie sagten, der Name Claude sei bereits in Gebrauch, und das Unternehmen arbeite weiterhin eng mit dem heutigen Kriegsministerium zusammen.dent Donald Trump hatte das Verteidigungsministerium kürzlich angewiesen, diesen Namen anzunehmen, der Kongress muss dies aber noch genehmigen.
Während all dies geschieht, verlassen zahlreiche Forscher dieser Unternehmen ihre Positionen. Einer der führenden Sicherheitsforscher von Anthropic sagte bei seinem Ausscheiden: „Die Welt ist in Gefahr.“ Auch ein Forscher von OpenAI verließ das Unternehmen mit der Begründung, die Technologie berge „das Potenzial, Nutzer auf eine Weise zu manipulieren, die wir weder verstehen noch verhindern können.“
Manche derjenigen, die das Unternehmen verlassen, tun dies nicht stillschweigend. Sie warnen davor, dass die Dinge zu schnell voranschreiten und die Risiken ignoriert werden. Zoë Hitzig, die zwei Jahre lang bei OpenAI gearbeitet hat, kündigte diese Woche.
In einem Essay äußerte sie ihre „großen Bedenken“ hinsichtlich der Werbestrategie des Unternehmens. Sie behauptete außerdem, ChatGPT speichere private Daten der Nutzer, darunter „Ängste bezüglich ihrer Gesundheit, Beziehungsprobleme und ihre Vorstellungen von Gott und dem Jenseits“
Sie sagte, das sei ein riesiges Problem, weil die Leute dem Chatbot vertrauen und nicht glauben, dass er irgendwelche versteckten Motive hat.
Etwa zur gleichen Zeit berichtete das Technologieportal Platformer, dass OpenAI sein Team zur Ausrichtung der Unternehmensmission aufgelöst hat. Diese Gruppe war 2024 gegründet worden, um sicherzustellen, dass das Unternehmensziel, eine KI zu entwickeln, die der gesamten Menschheit hilft, auch tatsächlich Bedeutung hat.
Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an .