Amerikaanse financiële leiders worden geconfronteerd met een nieuwe digitale risicogrens. Tijdens een bijeenkomst op hoog niveau in Washington D.C. waarschuwden topambtenaren van de grootste banken van het land dat een doorbraak in kunstmatige intelligentie onbedoeld de deur zou kunnen openen voor geavanceerde cyberaanvallen.
Een briefing met hoge inzet
Dinsdag belegde minister van Financiën Scott Bessent een spoedvergadering met een selecte groep CEO’s, waaronder leiders van Bank of America, Citi en Wells Fargo. De voornaamste zorg betreft de integratie van geavanceerde AI-modellen in interne banksystemen.
Aan de discussie werd deelgenomen door Federal Reserve-voorzitter Jerome H. Powell, die onlangs de groeiende kwetsbaarheid van de mondiale financiële infrastructuur voor cyberdreigingen heeft benadrukt. De consensus onder ambtenaren was duidelijk: hoewel AI een enorm potentieel biedt, vormt het huidige traject een directe bedreiging voor gevoelige klantgegevens en institutionele veiligheid.
Het “Claude Mythos”-dilemma
De kern van de waarschuwing draait om een nieuw intelligentiemodel ontwikkeld door Anthropic, bekend als Claude Mythos Preview.
In tegenstelling tot standaard AI is dit model specifiek ontworpen om softwarekwetsbaarheden te identificeren. Anthropic heeft opgemerkt dat de mogelijkheden van het model zo geavanceerd zijn dat het beveiligingsfouten kan detecteren die menselijke ontwikkelaars (en zelfs traditionele geautomatiseerde tools) vaak over het hoofd zien.
Dit creëert een “tweesnijdend zwaard”-scenario voor de banksector:
– Het voordeel: Banken zouden het model kunnen gebruiken om hun eigen zwakke punten te vinden en te herstellen voordat criminelen dat doen.
– Het risico: Als deze technologie in interne systemen wordt geïntegreerd, kan het een routekaart voor aanvallers worden. Als hackers of ‘slechte actoren van derden’ toegang krijgen tot de bevindingen van het model, zouden ze over een perfecte gids beschikken om de meest kritieke beveiligingslekken van de bank op te sporen.
Gecontroleerde vrijgave en “Project Glasswing”
Het potentiële gevaar is zo groot dat Anthropic heeft gekozen tegen een algemene publieke release van het model. In plaats daarvan beheert het bedrijf het risico via een beperkt initiatief genaamd “Project Glasswing.”
Momenteel is de toegang tot het model beperkt tot een gespecialiseerde coalitie van veertig bedrijven. Deze inperkingsstrategie weerspiegelt een groeiende trend in de AI-industrie: naarmate modellen beter in staat zijn om door complexe veiligheidsproblemen te ‘redeneren’, verschuift de industrie naar sterk gecontroleerde, afgesloten omgevingen om wijdverbreide uitbuiting te voorkomen.
Waar het op neerkomt: De opkomst van gespecialiseerde AI zoals Claude Mythos benadrukt een nieuwe paradox in cyberbeveiliging: juist de tools die zijn ontworpen om kwetsbaarheden te vinden, kunnen de krachtigste wapens worden voor degenen die ze willen exploiteren.





















