
Microsoft hat ein US-Gericht angerufen, um die Entscheidung des Pentagons zu blockieren, das KI-Unternehmen Anthropic vorübergehend als Lieferkettenrisiko einzustufen. Der Technologiekonzern argumentiert, ein solcher Schritt könne den Zugang des Militärs zu fortschrittlichen KI-Systemen beeinträchtigen und Milliardeninvestitionen in private Unternehmen gefährden.
Microsoft kündigte kürzlich an, bis zu 5 Milliarden Dollar in Anthropic zu investieren, und behauptet, eine gerichtliche Anordnung , um zu verhindern, dass Verträge trac Technologien, die bereits von der Regierung genutzt werden, unmittelbar Schaden nehmen.
Obwohl das US-Verteidigungsministerium erklärte, es müsse seine Systeme und Operationen verteidigen, warnen Unternehmen, die KI-Tools entwickeln, davor, dass abrupte Einschränkungen Partnerschaften untergraben und Amerikas Führungsrolle im Technologiebereich gefährden könnten.
Microsoft hat beim United States District Court for the Northern District of California einen Antrag auf einstweilige Verfügung gestellt, um das Pentagon daran zu hindern, sein Verbot auf die Technologie von Anthropic in allen bestehendentracanzuwenden.
In der Eingabe erklärte Microsoft, eine solche Anordnung würde Zeit für eine reibungslosere Implementierung verschaffen und die fortgesetzte Nutzung von KI-Werkzeugen durch das Militär nicht beeinträchtigen. Ohne die einstweilige Verfügung, so warnte Microsoft, könnten alle im Auftrag des Pentagons tätigen Unternehmen gezwungen sein, Produkte undtrac, die derzeit auf den KI-Modellen von Anthropics basieren, rasch umzustellen.
Diese Umstellung, so das Unternehmen, könnte Auswirkungen auf die Operationen des Verteidigungsministeriums haben. „Dies könnte die US-Streitkräfte in einem entscheidenden Moment gefährden“, erklärte Microsoft in der Eingabe. Microsoft reichte den Antrag als Stellungnahme eines Sachverständigen ein und ist daher nicht direkt beteiligt.
Das Urteil des Gerichts hätte jedoch laut Unternehmensangaben potenziell „wesentliche Auswirkungen“ auf das Geschäft und die gesamte Branche. Auch die Finanzierungskosten beeinflussen die Beteiligung des Unternehmens.
Microsoft plant, im November bis zu 5 Milliarden US-Dollar in Anthropic zu investieren, eines der am schnellsten wachsenden KI-Unternehmen in den USA. Microsoft ist bereits ein bedeutender Investor bei OpenAI , einem konkurrierenden Entwickler.
Die Kontroverse entbrannte letzte Woche, als das Pentagon die Technologie von Anthropic formell von Verteidigungsaufträgen ausschloss trac das Unternehmen als Lieferkettenrisiko einstufte.
Dieses Label wurde traditionell mit Unternehmen in Verbindung gebracht, die Verbindungen zu ausländischen Gegnern unterhalten. Solchetrac, die im Rahmen dieser Anordnung mit dem Verteidigungsministerium zusammenarbeiten, müssen bestätigen, dass die KI-Modelle von Anthropic nicht in Systemen oder Diensten verwendet werden, die mit der Arbeit des Pentagons in Verbindung stehen.
Anthropic verklagte die Behörde umgehend wegen ihrer Entscheidung und argumentierte, die Einstufung sei beispiellos und rechtswidrig. Das Unternehmen erhob auch dent gegen die Bundesregierung. Anthropic erklärte, das Urteil könne dem Geschäft erheblichen Schaden zufügen und Verträge trac Wert von Hunderten Millionen gefährden.
Im Zentrum der Debatte stehen die KI-Modelle von Anthropic, genannt Claude. Das Unternehmen hatte mit dem Pentagon über die Nutzung der Technologie verhandelt, die Gespräche scheiterten jedoch. Anthropic forderte Zusicherungen, dass seine Systeme nicht für vollautonome Waffensysteme oder zur massenhaften Überwachung im Inland eingesetzt würden.
Während sich die Lage in den USA weiterentwickelt, plant Anthropic in den kommenden Wochen die Eröffnung eines neuen Büros in Sydney und baut damit seine Präsenz in Australien und Neuseeland weiter aus. Laut dem Wirtschaftsindex des Unternehmens belegen die beiden Länder weltweit den vierten bzw. achten Platz in Bezug auf die Pro-Kopf-Nutzung von Claude.ai. Das Büro in Sydney wird Anthropics vierter Standort im asiatisch-pazifischen Raum sein.
Die Kontroverse hat Anthropic auch Unterstützung aus der gesamten KI-Community eingebracht. Mehr als 30 Mitarbeiter von OpenAI und Google DeepMind reichten eine Erklärung ein, in der sie Anthropics Klage unterstützten. Zu den Unterzeichnern gehörte auch Jeff Dean, der leitende Wissenschaftler von DeepMind.
In der Klageschrift argumentierten die Forscher, dass die Einstufung durch die Regierung ein willkürlicher Machtmissbrauch sei, der der gesamten KI-Branche schaden könne.
Sie merkten an, dass das Pentagon, wenn es mit seinemtracmit Anthropic unzufrieden gewesen wäre, die Vereinbarung einfach hätte beenden und einen anderen Anbieter wählen können, anstatt das Unternehmen als Bedrohung für die Lieferkette zu bezeichnen.
Die Mitarbeiter warnten außerdem davor, dass dieser Schritt die Wettbewerbsfähigkeit der USA im Bereich der künstlichen Intelligenz untergraben könnte, indem er eine offene Diskussion über die Risiken und Grenzen der Technologie erschwert.
Kurz nachdem das Pentagon die Einstufung bekannt gegeben hatte, unterzeichnete das Verteidigungsministerium einen Vertrag mit OpenAI, eine Entwicklung, gegen die einige OpenAI-Mitarbeiter Berichten zufolge protestierten.
Die klügsten Köpfe der Krypto-Szene lesen bereits unseren Newsletter. Möchten Sie auch dabei sein? Dann schließen Sie sich ihnen an .