Il dilemma della sicurezza: perché Anthropic sta frenando il suo nuovo modello di intelligenza artificiale

11

Per anni, la protesta pubblica nei confronti dell’intelligenza artificiale si è concentrata su una serie prevedibile di danni sociali: spostamento di posti di lavoro, disonestà accademica, costi ambientali e diffusione della disinformazione. C’è stato un persistente appello da parte degli esperti di etica e dei regolatori a “rallentare” e costruire guardrail più robusti prima che la tecnologia diventi troppo profondamente radicata nel nostro tessuto sociale.

Tuttavia, una recente decisione dello sviluppatore di intelligenza artificiale Anthropic suggerisce che il pericolo più urgente potrebbe non essere sociale o etico, ma puramente tecnico e strutturale.

Il ritardo “Mito”.

Anthropic ha annunciato che ritarderà il rilascio del suo ultimo modello, internamente noto come Mythos. Questa decisione non è stata motivata da preoccupazioni relative ai deepfake o alla disinformazione, ma da una scoperta sorprendente durante la fase di test: il modello si è rivelato un hacker eccezionalmente dotato.

Durante i test del prototipo, Mythos ha dimostrato una capacità senza precedenti nell’identificare le vulnerabilità del software. Secondo l’azienda, il modello ha scoperto con successo migliaia di punti deboli, inclusi difetti critici all’interno di tutti i principali sistemi operativi e browser web attualmente in uso.

Perché è importante: la minaccia del “Robohacking”.

Questo sviluppo evidenzia un cambiamento nel panorama dei rischi legati all’IA. Mentre gran parte del dibattito si concentra su come l’intelligenza artificiale potrebbe cambiare ciò che facciamo, i risultati di Anthropic si concentrano su come l’intelligenza artificiale potrebbe cambiare il modo in cui funziona la nostra infrastruttura.

La capacità di un singolo modello di mappare le vulnerabilità nell’intero ecosistema digitale presenta un enorme rischio per la sicurezza:

  • Sfruttamento automatizzato: se un’intelligenza artificiale riesce a trovare migliaia di bug in pochi secondi, può teoricamente essere utilizzata per automatizzare gli attacchi informatici su una scala e a una velocità impossibili per gli hacker umani.
  • Fragilità sistemica: Il fatto che Mythos abbia riscontrato difetti in tutti i principali browser e sistemi operativi suggerisce che la nostra architettura digitale fondamentale è più vulnerabile alla scoperta guidata dall’intelligenza artificiale di quanto precedentemente previsto.
  • La corsa agli armamenti: Ciò crea un dilemma del “duplice uso”. La stessa intelligenza utilizzata per correggere le falle di sicurezza può essere utilizzata per sfruttarle, portando a una corsa ad alto rischio tra la difesa guidata dall’intelligenza artificiale e l’offensiva guidata dall’intelligenza artificiale.

Una nuova priorità per la sicurezza dell’IA

La decisione di Anthropic di “tirare il freno” segna un punto cruciale nel dibattito sulla sicurezza dell’intelligenza artificiale. Ciò suggerisce che la “minaccia esistenziale” più immediata potrebbe non essere una superintelligenza canaglia o un collasso sociale, ma l’improvvisa e diffusa destabilizzazione del software su cui facciamo affidamento ogni giorno.

Dando priorità al contenimento

Попередня статтяOltre il pulsante: come gli agenti AI mirano a sostituire le interfacce software tradizionali
Наступна статтяRischi per la sicurezza dell’intelligenza artificiale, profilo di Sam Altman e futuro della sicurezza informatica