tradingkey.logo

Die Wall Street wendet sich gegen Cybersicherheitsaktien, nachdem Claude von Anthropic von Experten übersehene Sicherheitslücken aufdeckt

CryptopolitanFeb 21, 2026 5:13 PM

Anthropic hat eine begrenzte Forschungsvorschau von Claude Code Security veröffentlicht, einem neuen Tool, das Software auf Schwachstellen scannt und Korrekturen empfiehlt. Dies stellt einen bedeutenden Schritt beim Einsatz künstlicher Intelligenz zur Cyberabwehr dar und sorgt in der Cybersicherheitsbranche für Aufsehen.

Das in die Claude Code-Plattform von Anthropic integrierte Tool steht ab sofort Enterprise- und Team-Kunden zur Verfügung. Open-Source-Projektbetreuer erhalten kostenlosen, beschleunigten Zugriff. Das in San Francisco ansässige KI-Unternehmen geht davon aus, dass KI in naher Zukunft einen erheblichen Teil des weltweiten Quellcodes analysieren wird.

Die bestehenden Sicherheitstools funktionieren nur bei den häufigsten Problemmustern, wie etwa kompromittierten Passwörtern oder veralteter Verschlüsselung.

Claude Code Security geht über reines Mustervergleichen hinaus. Es durchsucht eine vollständige Codebasis auf die gleiche Weise wie ein menschlicher Forscher, verfolgt den Datenfluss durch das System und erkennt Probleme, die Standardscanner übersehen.

Die Ergebnisse durchlaufen mehrere Prüfrunden, bevor sie einem Entwickler zu Gesicht kommen, wodurch Sackgassen vermieden werden. Jedes Problem wird zudem nach seiner Schwere eingestuft, sodass die Teams wissen, wo sie ansetzen sollen.

Es läuft auf Claude Opus 4.6, dem neuesten Modell von Anthropic , das vom hauseigenen Frontier Red Team ausgiebig getestet wurde. Dabei wurden über 500 Sicherheitslücken in aktiven Open-Source-Quellcodebasen entdeckt einige davon waren jahrzehntelang unentdeckt geblieben, selbst nach jahrelanger Überprüfung durch Experten.

Anthropic gibt an, derzeit die Verantwortlichen für die betreffenden Projekte zu informieren. Das Unternehmen hat Claude außerdem in seinem internen Code getestet und berichtet vontronErgebnissen.

Analysten widersprechen, aber die Märkte sind nicht überzeugt

Die Nachricht verunsicherte Investoren im Bereich Cybersicherheit. Die Aktien von CrowdStrike fielen am Freitag um 6,8 % und die von Okta um 9,2 %, da die Märkte begannen, die Frage zu stellen, ob KI-Tools das Geschäft etablierter Sicherheitsunternehmen beeinträchtigen könnten.

Cloudflare verlor 6,7 %, SailPoint 9,1 % und Palo Alto Networks 1,5 %. Zscaler gab um 5,47 % nach. Der Global X Cybersecurity ETF, der Sicherheitsunternehmen weltweit abbildet, schloss den Tag mit einem Minus von fast 5 %.

Nicht alle hielten die Reaktion für gerechtfertigt. Analysten von Barclays nannten sie „widersprüchlich“ und argumentierten, dass ein Tool, das für Codesicherheit entwickelt wurde, nicht wirklich mit den Angeboten von Unternehmen wie CrowdStrike oder Palo Alto Networks konkurrieren könne.

Doch die Diskrepanz zwischen dem, was die Märkte verunsicherte, und dem, was Analysten ignorieren, steht in einem beunruhigenden Zusammenhang mit einer harten Tatsache: Die KI von Anthropic entdeckte mehr als 500 Schwachstellen in aktiven Quellcodes, die jahrelang, in einigen Fällen sogar jahrzehntelang, unentdeckt geblieben waren, ohne dass ein menschlicher Experte sie bemerkt hatte.

Unabhängig davon, welche Wettbewerbsgrenzen Analysten ziehen, hat das Tool etwas geschafft, was der Sicherheitsbranche allein nicht gelungen war.

Warnungen vor KI-gestützten Cyberangriffen erhöhen den Druck

Der Zeitpunkt der Markteinführung birgt eine unangenehme Ironie. Claude Opus 4.6, genau das Modell, das nun als Sicherheitswächter positioniert wird, wurde nur wenige Tage zuvor für einen Verlust von 1,78 Millionen US-Dollar beim DeFi -Kreditprotokoll Moonwell verantwortlich gemacht.

Die Hürde, um mit KI-generiertem Code ernsthaften Schaden anzurichten, ist so niedrig gesunken, dass es nicht einmal mehr eines Angreifers bedarf. Sicherheitsexperten warnen bereits seit Monaten vor dieser Entwicklung.

Anthropic bestätigte diesen Trend in einer eigenen Pressemitteilung und warnte davor, dass „weniger erfahrene und ressourcenstarke Gruppen nun potenziell groß angelegte Angriffe dieser Art durchführen können“

„Angreifer werden KI nutzen, um ausnutzbare Schwachstellen schneller als je zuvor zu finden“, so . „Doch Verteidiger, die schnell reagieren, können dieselben Schwachstellen finden, sie beheben und das Risiko eines Angriffs verringern.“

Die internen Forschungsergebnisse, die im Dezember 2025 veröffentlicht wurden, gingen noch weiter und zeigten dass eine frühere Version des Modells, Claude Opus 4.5, dent selbstständig trac dent und ausnutzen .

Dem Unternehmen war bewusst, dass seine Modelle sowohl nachteilig als auch nachteilig sein konnten. Claude Code Security ist seine Antwort auf dieses Problem. Es bietet Verteidigern dieselben Funktionen, bevor Angreifer sie nutzen können.

Der Konkurrent von Anthropic, OpenAI, stellte im Oktober letzten Jahres sein eigenes automatisiertes Sicherheitstool namens Aardvark vor und signalisierte damit, dass KI-gestützte Sicherheit zu einem wettbewerbsintensiven Schlachtfeld wird.

Möchten Sie Ihr Projekt den führenden Köpfen der Krypto-Szene präsentieren? Stellen Sie es in unserem nächsten Branchenbericht vor, in dem Daten auf Wirkung treffen.

Haftungsausschluss: Die auf dieser Website bereitgestellten Informationen dienen ausschließlich Bildungs- und Informationszwecken und stellen keine Finanz- oder Anlageberatung dar

Verwandte Artikel

KeyAI