I leader finanziari statunitensi si trovano ad affrontare una nuova frontiera digitale del rischio. In un incontro ad alto livello a Washington, DC, alti funzionari governativi hanno avvertito i dirigenti delle più grandi banche del paese che una svolta nel campo dell’intelligenza artificiale potrebbe inavvertitamente aprire la porta a sofisticati attacchi informatici.
Un briefing ad alto rischio
Martedì, il Segretario al Tesoro Scott Bessent ha convocato un incontro urgente con un gruppo selezionato di amministratori delegati, tra cui leader di Bank of America, Citi e Wells Fargo. La preoccupazione principale riguarda l’integrazione di modelli avanzati di intelligenza artificiale nei sistemi bancari interni.
Alla discussione si è unito il presidente della Federal Reserve Jerome H. Powell, che ha recentemente sottolineato la crescente vulnerabilità dell’infrastruttura finanziaria globale alle minacce informatiche. Il consenso tra i funzionari era chiaro: sebbene l’intelligenza artificiale offra un potenziale immenso, la sua traiettoria attuale rappresenta una minaccia diretta ai dati sensibili dei clienti e alla sicurezza istituzionale.
Il dilemma del “Claude Mythos”.
Il nocciolo dell’allarme è incentrato su un nuovo modello di intelligenza sviluppato da Anthropic noto come Claude Mythos Preview.
A differenza dell’intelligenza artificiale standard, questo modello è progettato specificamente per identificare le vulnerabilità del software. Anthropic ha notato che le capacità del modello sono così avanzate da poter rilevare i difetti di sicurezza che gli sviluppatori umani, e anche gli strumenti automatizzati tradizionali, spesso non riescono a cogliere.
Ciò crea uno scenario di “arma a doppio taglio” per il settore bancario:
– Il vantaggio: le banche potrebbero utilizzare il modello per individuare e correggere i propri punti deboli prima che lo facciano i criminali.
– Il rischio: se questa tecnologia fosse integrata nei sistemi interni, potrebbe diventare una tabella di marcia per gli aggressori. Se gli hacker o i “cattivi attori di terze parti” riuscissero ad accedere ai risultati del modello, avrebbero una guida perfetta per individuare le lacune di sicurezza più critiche della banca.
Rilascio controllato e “Progetto Glasswing”
Il pericolo potenziale è abbastanza significativo da spingere Anthropic a optare contro la diffusione pubblica del modello. La società sta invece gestendo il rischio attraverso un’iniziativa ristretta denominata “Progetto Glasswing.”
Attualmente l’accesso al modello è limitato a una coalizione specializzata di 40 aziende. Questa strategia di contenimento riflette una tendenza crescente nel settore dell’intelligenza artificiale: man mano che i modelli diventano più capaci di “ragionare” attraverso complessi problemi di sicurezza, il settore si sta spostando verso ambienti altamente controllati e recintati per prevenire uno sfruttamento diffuso.
Il punto: L’emergere di un’intelligenza artificiale specializzata come Claude Mythos evidenzia un nuovo paradosso nella sicurezza informatica: gli stessi strumenti progettati per individuare le vulnerabilità possono diventare le armi più potenti per coloro che cercano di sfruttarle.
