US-Finanzführer stehen vor einer neuen digitalen Risikogrenze. Bei einem hochrangigen Treffen in Washington, D.C. warnten hochrangige Regierungsbeamte Führungskräfte der größten Banken des Landes, dass ein Durchbruch in der künstlichen Intelligenz unbeabsichtigt die Tür für raffinierte Cyberangriffe öffnen könnte.
Ein Briefing mit hohen Einsätzen
Am Dienstag berief Finanzminister Scott Bessent ein dringendes Treffen mit einer ausgewählten Gruppe von Vorstandsvorsitzenden ein, darunter Führungskräfte von Bank of America, Citi und Wells Fargo. Das Hauptanliegen betrifft die Integration fortschrittlicher KI-Modelle in interne Bankensysteme.
An der Diskussion beteiligte sich Federal-Reserve-Vorsitzender Jerome H. Powell, der kürzlich die wachsende Anfälligkeit der globalen Finanzinfrastruktur für Cyber-Bedrohungen betonte. Der Konsens unter den Beamten war klar: Während KI ein immenses Potenzial bietet, stellt ihre aktuelle Entwicklung eine direkte Bedrohung für sensible Kundendaten und die institutionelle Sicherheit dar.
Das „Claude Mythos“-Dilemma
Der Kern der Warnung konzentriert sich auf ein neues von Anthropic entwickeltes Geheimdienstmodell namens Claude Mythos Preview.
Im Gegensatz zur Standard-KI ist dieses Modell speziell für die Identifizierung von Software-Schwachstellen konzipiert. Anthropic hat festgestellt, dass die Fähigkeiten des Modells so weit fortgeschritten sind, dass es Sicherheitslücken erkennen kann, die menschliche Entwickler – und sogar herkömmliche automatisierte Tools – häufig übersehen.
Dies führt zu einem „zweischneidigen Schwert“-Szenario für den Bankensektor:
– Der Vorteil: Banken könnten das Modell nutzen, um ihre eigenen Schwachstellen zu finden und zu beheben, bevor es Kriminelle tun.
– Das Risiko: Wenn diese Technologie in interne Systeme integriert wird, könnte sie zu einer Roadmap für Angreifer werden. Wenn Hacker oder „dritte böse Akteure“ Zugriff auf die Ergebnisse des Modells erhalten, verfügen sie über einen perfekten Leitfaden zu den kritischsten Sicherheitslücken der Bank.
Kontrollierte Freisetzung und „Projekt Glasswing“
Die potenzielle Gefahr ist so groß, dass Anthropic sich gegen eine allgemeine Veröffentlichung des Modells entschieden hat. Stattdessen verwaltet das Unternehmen das Risiko durch eine eingeschränkte Initiative namens „Project Glasswing“.
Derzeit ist der Zugang zu dem Modell auf eine spezialisierte Koalition von 40 Unternehmen beschränkt. Diese Eindämmungsstrategie spiegelt einen wachsenden Trend in der KI-Branche wider: Da Modelle immer besser in der Lage sind, komplexe Sicherheitsprobleme zu „begründen“, verlagert sich die Branche auf stark kontrollierte, geschlossene Umgebungen, um eine weit verbreitete Ausbeutung zu verhindern.
Das Fazit: Das Aufkommen spezialisierter KI wie Claude Mythos wirft ein Schlaglicht auf ein neues Paradoxon in der Cybersicherheit: Gerade die Tools, die zum Auffinden von Schwachstellen entwickelt wurden, könnten für diejenigen, die sie ausnutzen wollen, zu den mächtigsten Waffen werden.





















