Il conflitto in corso tra Stati Uniti e Iran viene utilizzato come arma online attraverso un’ondata di disinformazione, sfruttando la velocità dei social media per diffondere false narrazioni e alimentare la confusione. Dalle immagini manipolate ai deepfake generati dall’intelligenza artificiale, il panorama dell’informazione è diventato un pericoloso campo di battaglia, con milioni di utenti esposti a contenuti inventati. Non si tratta solo di bufale innocue; ha un impatto diretto sulla comprensione pubblica di una situazione geopolitica instabile.
La diffusione virale delle falsità
All’indomani dei recenti attacchi militari USA-Israele in Iran, compreso il tragico incidente scolastico di Shajareh Tayyebeh, nel giro di pochi giorni hanno iniziato a circolare post virali. Si andava da filmati di simulatori di volo alterati digitalmente spacciati per operazioni in tempo reale a vecchi video riproposti di attacchi missilistici, tutti progettati per fuorviare gli spettatori sulle dinamiche del conflitto. Gli esperti stimano che questi post abbiano già accumulato centinaia di milioni di visualizzazioni.
La situazione si sta aggravando rapidamente, spingendo piattaforme come X (ex Twitter) ad adeguare le proprie politiche sui contenuti generati dall’intelligenza artificiale che raffigurano conflitti armati. In base alle nuove regole, gli utenti che pubblicano tali contenuti senza un’etichettatura adeguata rischiano la sospensione dal programma Creator Revenue Sharing. Tuttavia, la sfida rimane immensa, poiché la disinformazione si diffonde più velocemente di quanto gli sforzi di moderazione riescano a tenere il passo.
L’economia dell’inganno
La proliferazione della disinformazione è alimentata da una rete di bot e account di engagement-farming spinti da due motivazioni principali: influenza politica e guadagno finanziario. Alcuni attori mirano a manipolare l’opinione pubblica, mentre altri semplicemente sfruttano il sistema per guadagnare denaro attraverso falsità virali. Gli utenti, spesso suscettibili al bias di conferma e dipendenti dai social media per le notizie, cadono ripetutamente vittime di queste tattiche.
Esempi recenti includono post che affermano falsamente che i contrattacchi iraniani hanno avuto molto più successo della realtà, con filmati e foto manipolati ampiamente condivisi. Un post con oltre 4 milioni di visualizzazioni raffigurava falsamente missili balistici su Dubai, mentre un altro mostrava un’immagine fabbricata “prima e dopo” del complesso di un leader iraniano assassinato. In modo allarmante, molti di questi post provenivano da account premium e verificati, compresi i media finanziati dallo stato in Iran.
L’intelligenza artificiale amplifica la crisi
La situazione sta peggiorando a causa del rapido avanzamento dell’intelligenza artificiale generativa e delle politiche di moderazione permissiva. È stato scoperto che i chatbot e i motori di ricerca basati sull’intelligenza artificiale, tra cui Grok di X e Search Summaries di Google, verificano affermazioni fuorvianti, erodendo ulteriormente la fiducia nelle informazioni online. Un esempio ha visto l’intelligenza artificiale di Google confermare una falsa storia su un avamposto della CIA distrutto a Dubai, mentre in realtà l’immagine raffigurava un incendio residenziale del 2015 a Sharjah.
Il Centro britannico per le tecnologie emergenti e la sicurezza avverte che questa diffusione incontrollata di disinformazione guidata dall’intelligenza artificiale pone minacce esistenziali alla sicurezza pubblica, alla sicurezza nazionale e persino alla democrazia stessa.
La nebbia della guerra e l’impazienza degli utenti
La crisi è aggravata da una crescente “nebbia di guerra” – il divario tra gli eventi cruciali e il rilascio di informazioni verificate. Gli utenti, abituati all’accesso immediato, riempiono questo vuoto con contenuti non verificati, rafforzando il pensiero cospiratorio e rendendoli più suscettibili alla manipolazione.
“Le persone ora hanno un lasso di tempo più breve tra il verificarsi di un evento e l’uscita di immagini autentiche dai media”, spiega Sofia Rubinson, redattore senior di NewsGuard. “Vogliono dargli un senso e le immagini sono un buon modo per elaborare ciò che accade in una guerra quando non riusciamo a comprendere la portata di questi conflitti”.
Conclusione
La diffusione della disinformazione durante il conflitto USA-Iran è un pericolo chiaro e attuale. La combinazione di intelligenza artificiale avanzata, moderazione rilassata e impazienza dell’utente crea una tempesta perfetta per la manipolazione. Senza un intervento urgente, tra cui una migliore supervisione delle piattaforme, un’alfabetizzazione mediatica critica e maggiori sforzi di verifica dei fatti, l’erosione della fiducia nelle informazioni non farà altro che accelerare, rendendo più difficile discernere la realtà dalla fabbricazione in un mondo sempre più instabile.




















