tradingkey.logo

Anthropic zufolge haben DeepSeek, Moonshot AI und MiniMax über 24.000 gefälschte Konten erstellt, um Daten von Claude zutrac

CryptopolitanFeb 23, 2026 7:21 PM

Anthropic zufolge haben drei chinesische KI-Firmen über 24.000 gefälschte Konten erstellt, um Daten aus dem Claude-System des Unternehmens abzugreifen. Ziel sei es gewesen, die eigenen Modelle schnell zu verbessern.

Bei den genannten Firmen handelte es sich um DeepSeek , Moonshot AI und MiniMax. Laut Anthropic übermittelten diese Accounts über 16 Millionen Anfragen an Claude, um Antworten und Muster zu sammeln, die für das Training wiederverwendet werden konnten.

Anthropic veröffentlichte die Details am Montag in einem Blogbeitrag. Das Unternehmen erklärte, es handele sich um eine Form der Datendestillation. Dabei werden die Ergebnisse eines Modells genutzt, um ein anderes Modell zu trainieren. Dario Amodei ist Geschäftsführer von Anthropic.

Anthropic gab angeblich an, DeepSeek habe rund 150.000 Interaktionen mit Claude durchgeführt. Moonshot AI protokollierte mehr als 3,4 Millionen Eingabeaufforderungen. MiniMax erreichte über 13 Millionen Eingabeaufforderungen. Anthropic erklärte, dieser Umfang zeige deutlich die Absicht, schnellstmöglich Mehrwert zutrac.

OpenAI meldet ähnliches Verhalten in Washington

Anfang des Monats verschickte OpenAI ein Memo an Abgeordnete des Repräsentantenhauses, in dem DeepSeek beschuldigt wurde, dieselbe Destillationstaktik angewendet zu haben, um die Systeme von OpenAI zu kopieren. Sam Altman leitet OpenAI . Nachdem OpenAI zunächst namentlich genannt wurde, teilte das Unternehmen den Abgeordneten mit, dass DeepSeek versucht habe, die Produkte von OpenAI durch große Anfragemengen nachzuahmen.

Anthropic erklärte, die Destillation an sich habe durchaus ihre Berechtigung. Unternehmen nutzten sie, um kleinere Versionen ihrer eigenen Modelle herzustellen. Anthropic führte außerdem aus, dass sich mit derselben Methode Konkurrenzsysteme in einem Bruchteil der Zeit und zu einem Bruchteil der Kosten realisieren ließen.

Synthetische Daten spielen mittlerweile eine wichtige Rolle beim Training großer Basismodelle. Entwickler nutzen sie, da hochwertige reale Daten begrenzt verfügbar sind. Viele Forschungseinrichtungen entwickeln zudem agentenbasierte Systeme, die im Auftrag von Nutzern Aktionen ausführen können. In einem technischen Bericht vom Juli gab Moonshot an, synthetische Daten zum Training seines Kimi-K2-Modells verwendet zu haben.

Anthropic erklärte, die Aktivitäten gäben Anlass zu Bedenken hinsichtlich der nationalen Sicherheit. Das Unternehmen führte aus, dass ausländische Labore, die amerikanische Modelle nachbilden, diese Fähigkeiten in Militär-, Geheimdienst- und Überwachungssysteme einspeisen könnten.

Die Märkte reagieren auf die Einführung eines neuen Sicherheitstools von Anthropic

Sicherheitstool vorgestellt . Das Tool scannt den Softwarecode auf Schwachstellen und schlägt Lösungen vor. Anthropic plant für Dienstag eine Unternehmenspräsentation mit weiteren Produktankündigungen.

Die Märkte reagierten prompt. Aktien von Cybersicherheitsunternehmen fielen am Montag den zweiten Tag in Folge, da Anleger befürchteten, dass neue KI-Tools ältere Sicherheitsdienste ersetzen könnten.

CrowdStrike und Zscaler verloren jeweils rund 9 Prozent an Wert. Netskope rutschte um fast 10 Prozent ab. SailPoint sank um 6 Prozent. Okta, SentinelOne und Fortinet verloren jeweils mehr als 4 Prozent. Palo Alto Networks gab um 2 Prozent nach.

Cloudflare fiel nach den jüngsten Kursgewinnen im Zusammenhang mit dem Interesse an Moltbot um 7 Prozent. Der iShares Cybersecurity and Tech ETF gab um fast 4 Prozent nach. Der Global X Cybersecurity ETF erreichte den niedrigsten Stand seit November 2023.

Der Druck reicht über Wertpapieraktien hinaus. KI-Tools, die Apps und Websites anhand einfacher Eingaben erstellen, haben Softwareunternehmen in diesem Jahr erschüttert.

Salesforce hat etwa ein Drittel seines Wertes verloren. ServiceNow ist um mehr als 34 Prozent gefallen. Microsoft hat rund 20 Prozent eingebüßt.

Die Bank of America erklärte, das Anthropic-Tool bedrohe hauptsächlich Code-Scanning-Plattformen wie GitLab und JFrog. GitLab verlor am Freitag 8 Prozent, JFrog 25 Prozent.

Sichern Sie sich Ihren kostenlosen Platz in einer exklusiven Krypto-Trading-Community – begrenzt auf 1.000 Mitglieder.

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Verwandte Artikel

KeyAI