Dylemat bezpieczeństwa: dlaczego Anthropic wstrzymuje wydanie swojego nowego modelu AI

8

Przez lata publiczne oburzenie wokół sztucznej inteligencji skupiało się na przewidywalnym zestawie problemów społecznych: wypieraniu ludzi z pracy, nieuczciwości akademickiej, kosztach środowiskowych i rozpowszechnianiu dezinformacji. Etycy i organy regulacyjne nalegają, aby zwolnić tempo i stworzyć silniejsze bariery bezpieczeństwa, zanim technologia zbyt głęboko zakorzeni się w naszej tkance społecznej.

Jednak niedawna decyzja twórcy sztucznej inteligencji, firmy Anthropic, wskazuje, że najpilniejsze zagrożenie może nie mieć charakteru społecznego ani etycznego, ale czysto techniczne i strukturalne.

Opóźnij „Mity”

Anthropic ogłosił, że opóźnia wypuszczenie swojego najnowszego modelu, znanego wewnętrznie jako Mythos. Decyzja ta nie była podyktowana obawami dotyczącymi deepfakes czy dezinformacji, ale zaskakującym odkryciem dokonanym w fazie testowej: model okazał się wyjątkowo utalentowanym hakerem.

Podczas testów prototypu Mythos wykazał niespotykaną dotąd zdolność identyfikowania luk w oprogramowaniu. Według firmy model skutecznie zidentyfikował tysiące luk, w tym błędy krytyczne, w każdym głównym systemie operacyjnym i przeglądarce internetowej aktualnie używanej.

Dlaczego to ma znaczenie: zagrożenie Robohakowaniem

Rozwój ten oznacza zmianę w krajobrazie ryzyka związanego ze sztuczną inteligencją. Chociaż większość dyskusji koncentruje się na tym, jak sztuczna inteligencja może zmienić to, co robimy, ustalenia Anthropic wskazują, w jaki sposób sztuczna inteligencja może zmienić sposób działania naszej infrastruktury.

Zdolność pojedynczego modelu do mapowania luk w całym ekosystemie cyfrowym stwarza ogromne ryzyko bezpieczeństwa:

  • Automatyczna eksploatacja: jeśli sztuczna inteligencja będzie w stanie znaleźć tysiące błędów w ciągu kilku sekund, teoretycznie mogłaby zostać wykorzystana do automatyzacji cyberataków na skalę i z szybkością nieosiągalną dla ludzkich hakerów.
  • Kruchość systemu: Fakt, że Mythos znalazł wady we wszystkich głównych przeglądarkach i systemach operacyjnych, sugeruje, że nasza podstawowa architektura cyfrowa jest bardziej podatna na badania nad sztuczną inteligencją, niż wcześniej sądzono.
  • Wyścig zbrojeń: Stwarza to dylemat „podwójnego zastosowania”. Tę samą inteligencję, która jest wykorzystywana do łatania luk w zabezpieczeniach, można wykorzystać do ich wykorzystania, co prowadzi do wyścigu wysokiego ryzyka między obroną a atakiem opartym na sztucznej inteligencji.

Nowy priorytet bezpieczeństwa AI

Decyzja Anthropic o naciśnięciu hamulca oznacza zwrot w debacie na temat bezpieczeństwa sztucznej inteligencji. Sugeruje, że najbardziej bezpośrednim „egzystencjalnym zagrożeniem” może nie być uciekająca superinteligencja czy upadek społeczny, ale nagła i powszechna destabilizacja oprogramowania, na którym polegamy na co dzień.

Nadając priorytet powstrzymywaniu…

Попередня статтяWięcej niż tylko przycisk: w jaki sposób agenci AI mają na celu zastąpienie tradycyjnych interfejsów oprogramowania
Наступна статтяZagrożenia bezpieczeństwa AI, profil Sama Altmana i przyszłość cyberbezpieczeństwa