Ministerstwo Finansów i Rezerwa Federalna ostrzegają największe banki przed nowymi zagrożeniami cybernetycznymi związanymi ze sztuczną inteligencją

23

Liderzy finansowi w USA stoją w obliczu nowej cyfrowej granicy zagrożeń. Na spotkaniu na wysokim szczeblu w Waszyngtonie najwyżsi urzędnicy rządowi ostrzegli kadrę kierowniczą największych banków w kraju, że przełomy w sztucznej inteligencji mogą przypadkowo otworzyć drzwi do wyrafinowanych cyberataków.

Odprawa o wysokiej stawce

We wtorek Sekretarz skarbu Scott Bessent odbył nadzwyczajne spotkanie z niewielkim kręgiem dyrektorów generalnych, w tym szefami Bank of America, Citi i Wells Fargo. Głównym problemem jest integracja zaawansowanych modeli sztucznej inteligencji z wewnętrznymi systemami bankowymi.

W dyskusji uczestniczył także Prezes Rezerwy Federalnej Jerome Powell, który niedawno podkreślił rosnącą podatność światowej infrastruktury finansowej na zagrożenia cybernetyczne. Konsensus wśród urzędników był jasny: choć sztuczna inteligencja ma ogromny potencjał, to jej obecny rozwój stwarza bezpośrednie zagrożenie dla wrażliwych danych klientów i bezpieczeństwa instytucji.

Dylemat „Claude’a Mythosa”.

Alert koncentruje się wokół nowego modelu sztucznej inteligencji opracowanego przez Anthropic, znanego jako Claude Mythos Preview.

W przeciwieństwie do standardowej sztucznej inteligencji, model ten został specjalnie zaprojektowany do identyfikowania luk w oprogramowaniu. Anthropic zauważyło, że możliwości modelu są na tyle zaawansowane, że potrafi wykryć luki w zabezpieczeniach, które często są pomijane przez programistów, a nawet tradycyjne, zautomatyzowane narzędzia.

Stwarza to scenariusz „miecza obosiecznego” dla sektora bankowego:
Korzyść: Banki mogą wykorzystać ten model do znalezienia i wyeliminowania własnych słabych punktów, zanim zrobią to przestępcy.
Ryzyko: jeśli technologia ta zostanie zintegrowana z systemami wewnętrznymi, może stać się drogowskazem dla atakujących. Jeśli hakerzy lub „osoby atakujące z zewnątrz” uzyskają dostęp do wyników modelu, będą mieli doskonały przewodnik po wykorzystywaniu najbardziej krytycznych luk w zabezpieczeniach banku.

Kontrolowane uwalnianie i projekt Glasswing

Potencjalne niebezpieczeństwo jest na tyle duże, że firma Anthropic zdecydowała się odmówić publicznego udostępnienia modelu. Zamiast tego firma zarządza ryzykiem poprzez ograniczoną inicjatywę o nazwie Project Glasswing.

Na chwilę obecną dostęp do modelu ma ograniczona wyspecjalizowana koalicja 40 firm. Ta strategia powstrzymywania odzwierciedla rosnący trend w branży sztucznej inteligencji: w miarę jak modele stają się coraz bardziej zdolne do „uzasadniania” złożonych problemów bezpieczeństwa, branża zmierza w kierunku ściśle kontrolowanych, zamkniętych środowisk, aby zapobiec wykorzystywaniu technologii na dużą skalę.


Konkluzja: Pojawienie się wyspecjalizowanej sztucznej inteligencji, takiej jak Claude Mythos, uwydatnia nowy paradoks w cyberbezpieczeństwie: same narzędzia zaprojektowane do wyszukiwania luk w zabezpieczeniach mogą stać się najpotężniejszą bronią w rękach tych, którzy chcą je wykorzystać.