
- von David Jeans und Deepa Seetharaman
12. Feb (Reuters) - Das Pentagon drängt die führenden KI-Unternehmen, darunter OpenAI und Anthropic, ihre Tools für künstliche Intelligenz in geheimen Netzwerken zur Verfügung zu stellen, ohne viele der Standardbeschränkungen, die die Unternehmen für ihre Nutzer anwenden.
Während einer Veranstaltung im Weißen Haus am Dienstag erklärte der Chief Technology Officer des Pentagons, Emil Michael, gegenüber Führungskräften aus der Technologiebranche, dass das Militär die KI-Modelle sowohl in nicht klassifizierten als auch in klassifizierten Bereichen verfügbar machen will, so zwei mit der Angelegenheit vertraute Personen.
Das Pentagon ist dabei, "KI-Fähigkeiten auf allen Klassifizierungsebenen einzusetzen", sagte ein Beamter, der anonym bleiben wollte, gegenüber Reuters.
Dies ist die jüngste Entwicklung in den laufenden Verhandlungen zwischen dem Pentagon und den führenden generativen KI-Firmen darüber, wie die USA KI auf einem künftigen Schlachtfeld einsetzen werden, das bereits von autonomen Drohnenschwärmen, Robotern und Cyberangriffen beherrscht wird.
Michaels Äußerungen werden wahrscheinlich auch die ohnehin schon kontroverse Debatte über den Wunsch des Militärs, KI uneingeschränkt zu nutzen, und die Fähigkeit von Technologieunternehmen, Grenzen für den Einsatz ihrer Tools zu setzen, weiter verschärfen. (link)
Viele KI-Firmen bauen maßgeschneiderte Tools für das US-Militär, von denen die meisten nur in nicht klassifizierten Netzwerken verfügbar sind, die normalerweise für die Militärverwaltung genutzt werden. Nur ein KI-Unternehmen - Anthropic - ist über Dritte in klassifizierten Netzwerken verfügbar, aber die Regierung ist dennoch an die Nutzungsrichtlinien des Unternehmens gebunden.
Verschlusssichere Netze werden für eine breite Palette sensiblerer Aufgaben verwendet, zu denen auch die Planung von Einsätzen oder das Zielen auf Waffen gehören kann. Reuters konnte nicht feststellen, wie oder wann das Pentagon plant, KI-Chatbots in geheimen Netzwerken einzusetzen.
Militärbeamte hoffen, die Fähigkeit der KI, Informationen zu synthetisieren, für die Entscheidungsfindung nutzen zu können. Diese Tools sind zwar leistungsstark, können aber auch Fehler machen und sogar Informationen erfinden, die auf den ersten Blick plausibel klingen mögen. Solche Fehler könnten in geheimen Umgebungen tödliche Folgen haben, sagen KI-Forscher.
KI-Firmen haben versucht, die Nachteile ihrer Produkte zu minimieren, indem sie Schutzmechanismen in ihre Modelle eingebaut haben und ihre Kunden auffordern, sich an bestimmte Richtlinien zu halten. Das Pentagon hat sich jedoch gegen solche Beschränkungen gewehrt und argumentiert, dass es in der Lage sein sollte, kommerzielle KI-Tools einzusetzen, solange diese die amerikanischen Gesetze einhalten.
Diese Woche hat OpenAI eine Vereinbarung mit dem Pentagon getroffen, damit das Militär seine Tools, einschließlich ChatGPT, in einem nicht klassifizierten Netzwerk namens http://genai.mil/ nutzen kann, das für mehr als 3 Millionen Mitarbeiter des Verteidigungsministeriums eingerichtet wurde. Als Teil der Vereinbarung stimmte OpenAI zu, viele seiner typischen Benutzerbeschränkungen aufzuheben, obwohl einige Leitplanken bestehen bleiben.
Alphabets GOOGL.O Google und xAI haben bereits ähnliche Vereinbarungen getroffen.
In einer Erklärung sagte OpenAI, dass sich die Vereinbarung von dieser Woche auf die nicht klassifizierte Nutzung durch genai.mil (link) bezieht. Eine Ausweitung dieser Vereinbarung würde eine neue oder geänderte Vereinbarung erfordern, sagte ein Sprecher.
Ähnliche Diskussionen zwischen dem OpenAI-Konkurrenten Anthropic und dem Pentagon waren wesentlich umstrittener, wie Reuters zuvor berichtete (link). Anthropic-Führungskräfte haben gegenüber Militärbeamten erklärt, dass sie nicht wollen, dass ihre Technologie für den autonomen Einsatz von Waffen und die Überwachung von US-Inlandsgebieten verwendet wird. Zu den Produkten von Anthropic gehört ein Chatbot namens Claude.
"Anthropic ist bestrebt, Amerikas Führungsposition im Bereich der KI zu schützen und die US-Regierung bei der Bekämpfung ausländischer Bedrohungen zu unterstützen, indem wir unseren Streitkräften Zugang zu den fortschrittlichsten KI-Fähigkeiten geben", sagte ein Sprecher von Anthropic. "Claude wird von der US-Regierung bereits in großem Umfang für nationale Sicherheitsaufgaben eingesetzt, und wir befinden uns in produktiven Gesprächen mit dem Kriegsministerium über Möglichkeiten, diese Arbeit fortzusetzen."
Präsident Donald Trump hat das Verteidigungsministerium angewiesen, sich in Kriegsministerium umzubenennen (link), eine WDHLG, die vom Kongress beschlossen werden muss.