
Die SEC hat Pläne angekündigt, KI- Technologie in ihre Abläufe , um die Erkennung von Anomalien zu vereinfachen und zu beschleunigen sowie Risikobewertungen durchzuführen.
Die SEC geht aktiv gegen Betrüger vor, die KI-Technologie für betrügerische Zwecke , sowie gegen Unternehmen, die KI-Washing betreiben, um Anleger zu täuschen.
Die US-Börsenaufsichtsbehörde (SEC) verfolgt Atkins KI-Taskforce der SEC , die eingerichtet wurde, um der gesamten Behörde Zugang zu technologischen Fortschritten zu verschaffen und sicherzustellen, dass die Kommission mit der rasanten Entwicklung des privaten Finanzsektors Schritt hält.
Die Kommission nutzt Algorithmen, um Marktmissbrauch, einschließlich Betrug und manipulative Handelspraktiken, aufzudecken. Diese Instrumente können Anomalien im Handelsvolumen oder in Kursbewegungen schneller und präziser erkennen als herkömmliche Methoden.
KI hilft den Mitarbeitern der Behörde außerdem dabei, wesentliche Auslassungen oder irreführende Angaben in den von Tausenden von börsennotierten Unternehmen eingereichten Dokumenten effizienterdent, wodurch die SEC in der Lage ist, in Echtzeit auf öffentliche Stellungnahmen und Marktveränderungen zu reagieren.
Vorsitzender Atkins betonte , dass das Ziel der SEC weiterhin darin bestehe, Anleger zu schützen, unabhängig von den eingesetzten Instrumenten. Diesmal achtet die Behörde insbesondere auf Anzeichen von „AI-Washing“. Dieser Begriff beschreibt Unternehmen, die falsche, übertriebene oder irreführende Angaben über den Einsatz künstlicher Intelligenz machen, um ihren Aktienkurs zu steigern oder Investoren trac
Eine der Hauptsorgen im Zusammenhang mit KI in der Regierung ist das Potenzial für intransparente Entscheidungsprozesse, bei denen ein Algorithmus eine Entscheidung ohne klare, für Menschen verständliche Begründung trifft. Vorsitzender Atkins stellte klar, dass menschliche Interaktion in jeder Phase des Risikobewertungsprogramms der SEC notwendig ist.
„Das Gebot des fairen Verfahrens erfordert dies“, bemerkte Atkins kürzlich bei einem Runden Tisch des Financial Stability Oversight Council (FSOC). Ein Algorithmus mag zwar ein verdächtiges Muster oder eine Anomaliedent, aber er ist nicht in der Lage, die Glaubwürdigkeit eines Zeugen zu beurteilen oder die Absicht eines Marktteilnehmers einzuschätzen. Daher obliegt die endgültige Entscheidung weiterhin den Kommissaren und den Fachkräften.
Führende KI-Entwickler wie Google (Gemini), OpenAI und Anthropic haben bereits Berichte veröffentlicht, die detailliert beschreiben, wie Angreifer ihre Plattformen ausnutzen. So berichtete OpenAI kürzlich über die Bekämpfung staatlich geförderter Akteure, die KI zur Suche nach Sicherheitslücken und zur Erstellung von Phishing-Inhalten einsetzten. Auch Googles Threat Analysis Group trac den Einsatz großer Sprachmodelle (LLMs) bei Social-Engineering-Angriffen, die auf den Diebstahl von Finanzdaten dent .
Die SEC wird Unternehmen zur Offenlegung von KI-bezogenen Informationen verpflichten, wenn eine erhebliche Wahrscheinlichkeit besteht, dass ein vernünftiger Aktionär diese für eine Investitionsentscheidung als wichtig erachten würde.
Anfang 2024 einigte sich die Kommission mit zwei Anlageberatern wegen falscher und irreführender Angaben zu ihrem KI-Einsatz. Die Unternehmen hatten behauptet, mithilfe von KI Millionen von Datenpunkten zu analysieren, um Marktbewegungen vorherzusagen. Die SEC befand diese Behauptungen jedoch für falsch.
Wenn Sie das hier lesen, sind Sie schon einen Schritt voraus. Bleiben Sie mit unserem Newsletter auf dem Laufenden .