Il panorama della sicurezza informatica è cambiato radicalmente alla RSA Conference 2026, con fornitori leader come CrowdStrike, Cisco e Palo Alto Networks che hanno svelato strumenti di sicurezza basati su agenti. Tuttavia, nonostante questi progressi, rimane una lacuna fondamentale: nessun fornitore ha fornito una soluzione per distinguere in modo affidabile tra attività legittima degli agenti e comportamenti dannosi. Ciò lascia le aziende vulnerabili in un ambiente in cui gli avversari ora operano alla velocità delle macchine.
La finestra di rilevamento del restringimento
La velocità degli attacchi moderni sta accelerando. Il CEO di CrowdStrike, George Kurtz, ha riferito che il tempo medio di evasione degli avversari è crollato da 48 minuti nel 2024 a soli 29 minuti oggi, con le violazioni più veloci registrate che si sono verificate in meno di 27 secondi. Ciò significa che i difensori hanno meno di un minuto per rispondere prima che una minaccia si diffonda. Allo stesso tempo, l’enorme volume di applicazioni basate sull’intelligenza artificiale in esecuzione sugli endpoint è esploso: CrowdStrike ora rileva oltre 1.800 applicazioni AI uniche, per un totale di quasi 160 milioni di istanze, tutte generando un’ondata di dati nei sistemi di sicurezza progettati per i flussi di lavoro umani.
Non è solo una questione di velocità; è una questione di scala. Il problema non è semplicemente che gli attacchi sono più veloci, ma che la complessità della gestione degli agenti IA travolge le operazioni di sicurezza esistenti.
Il divario nell’adozione degli agenti
La ricerca di Cisco rivela una significativa disconnessione tra l’interesse delle aziende per gli agenti IA e l’effettiva implementazione. L’85% delle organizzazioni intervistate sta sperimentando agenti IA, ma solo il 5% li ha messi in produzione. Questa esitazione deriva da domande fondamentali a cui i team di sicurezza non possono ancora rispondere: Quali agenti sono in esecuzione, quali sono le loro autorizzazioni e chi è responsabile in caso di errore?
Etay Maor, VP of Threat Intelligence presso Cato Networks, ha sintetizzato il problema: “Stiamo correndo verso la complessità dell’intelligenza artificiale, creando la prossima ondata di problemi di sicurezza invece di risolvere quelli esistenti.”
L’agente indistinguibile
Una delle sfide principali è che l’attività avviata dagli agenti spesso appare identica al comportamento umano nei registri di sicurezza standard. Come ha spiegato il CTO di CrowdStrike Elia Zaitsev, “Un agente che esegue un browser Web non sembra diverso da un essere umano che esegue lo stesso browser”. La differenziazione richiede una visibilità approfondita degli endpoint e la capacità di risalire all’attività fino alla sua origine, una capacità che manca a molti team di sicurezza.
Questa vulnerabilità è già stata sfruttata. L’attacco alla catena di fornitura ClawHavoc, che ha preso di mira il registro delle competenze ClawHub, ha dimostrato come gli agenti IA compromessi possano diffondere malware che cancellano le proprie tracce, rimanendo dormienti finché non vengono attivati. Kurtz ha avvertito: “I creatori di IA di frontiera non si metteranno in sicurezza. Prima costruiscono, poi si mettono in sicurezza.”
Due approcci, un punto cieco
I fornitori stanno rispondendo con due strategie principali:
- Approccio A: agenti all’interno del SIEM. Cisco e Splunk stanno integrando gli agenti AI direttamente nelle loro piattaforme SIEM per il triage e la risposta automatizzati.
- Approccio B: Analisi della pipeline. CrowdStrike sta spingendo l’analisi a monte nella pipeline di acquisizione dei dati, arricchendo gli eventi prima che raggiungano gli analisti.
Tuttavia, nessuno dei due approcci affronta la parte critica mancante: una base di riferimento del normale comportamento dell’agente. Entrambi accelerano la valutazione e il rilevamento, ma non riescono a definire come si presenta l’attività dell’agente autorizzato in un determinato ambiente.
Cinque passaggi per un’azione immediata
L’urgenza è chiara. I leader della sicurezza devono agire ora per adattarsi al panorama delle minacce agenti. Ecco cosa fare:
- Inventaria tutti gli agenti: identifica ogni applicazione AI in esecuzione sui tuoi endpoint.
- Verifica la differenziazione dell’attività dell’agente: conferma che i tuoi strumenti sono in grado di distinguere tra il comportamento dell’agente e quello umano.
- Allinea l’architettura al SIEM esistente: scegli una soluzione compatibile con il tuo attuale stack di sicurezza.
- Costruire una linea di base comportamentale dell’agente: definire le azioni autorizzate per ciascun agente e rilevare le deviazioni.
- Testare sotto pressione la catena di fornitura: scansiona gli agenti prima dell’implementazione e monitora eventuali compromessi post-installazione.
Il panorama della sicurezza è radicalmente cambiato. Il SOC è stato creato per proteggere gli esseri umani che utilizzano le macchine; ora deve proteggere le macchine che usano le macchine. La finestra decisionale si sta restringendo. I team che non riescono ad adattarsi saranno sopraffatti dalla velocità e dalla complessità della minaccia degli agenti.





















