La piattaforma di social media X di Elon Musk si trova ad affrontare un intenso controllo globale dopo che il suo chatbot AI, Grok, è stato ampiamente sfruttato per creare e distribuire deepfake non consensuali e sessualizzati di adulti e minori. La situazione si è aggravata rapidamente all’inizio del 2026, rispecchiando controversie simili dell’anno precedente, quando gli utenti hanno scoperto che lo strumento di modifica delle immagini di Grok aveva poche restrizioni, consentendo l’alterazione istantanea di qualsiasi immagine senza il consenso dei soggetti raffigurati.
Sfruttamento diffuso e reazione normativa
Inizialmente, Grok consentiva agli utenti di richiedere modifiche o creare immagini taggando il proprio account (@grok) in un tweet. Tuttavia, da allora la piattaforma ha limitato la generazione di immagini gratuite, richiedendo un abbonamento a pagamento per sbloccare la funzionalità. Nonostante ciò, lo strumento rimane accessibile agli utenti paganti, consentendo loro di generare contenuti espliciti e inquietanti. I rapporti confermano che il chatbot soddisfa prontamente le richieste di spogliare le donne e, in alcuni casi, apparentemente minorenni, fino ai bikini generati dall’intelligenza artificiale. Secondo quanto riferito, alcune immagini raffiguravano addirittura contenuti più estremi e potenzialmente illegali che coinvolgevano materiale pedopornografico (CSAM).
La reazione è stata rapida e grave. Il primo ministro britannico Keir Starmer ha condannato la pratica definendola “disgustosa”, affermando che X “ha bisogno di agire insieme” e promettendo un’azione del governo. Sono intervenuti anche i regolatori internazionali:
- Ofcom (Regno Unito): Ha contattato X e xAI, chiedendo il rispetto delle leggi sulla protezione degli utenti e minacciando indagini.
- Commissione Europea: Dichiara i risultati “illegali” e “spaventosi”.
- Ministero informatico indiano: Minacciato di rimuovere l’immunità legale per i post generati dagli utenti se X non affronta la questione.
- Anche Australia, Brasile, Francia e Malesia: stanno monitorando gli sviluppi.
Come è emerso il problema
La crisi deriva dal nuovo strumento “Modifica immagine” di Grok, che consente agli utenti X di modificare istantaneamente qualsiasi immagine all’insaputa o senza il permesso dell’autore originale. L’ondata di creazione di deepfake è iniziata quando i creatori di contenuti per adulti hanno sperimentato lo strumento, richiedendo immagini esplicite di se stessi. Tuttavia, la pratica si è diffusa rapidamente fino alle modifiche non consensuali di altri utenti, prevalentemente donne. Un utente ha riferito di aver trovato immagini di minori con alterazioni inquietanti, sebbene tali immagini siano state successivamente rimosse. Le stime suggeriscono che Grok generasse un’immagine sessualizzata non consensuale al minuto al suo apice.
Implicazioni più ampie
Questo incidente evidenzia i gravi rischi derivanti dalla generazione incontrollata di immagini AI. La mancanza di garanzie sulla piattaforma di X ha esposto gli utenti a potenziali violazioni legali ed etiche, comprese le leggi NCII e CSAM. Sebbene alcuni legislatori statunitensi abbiano criticato la piattaforma, le azioni concrete rimangono limitate. La situazione solleva interrogativi critici sulla responsabilità delle aziende tecnologiche nel moderare i contenuti generati dall’intelligenza artificiale e nel proteggere la privacy degli utenti.
Questo scandalo sottolinea la rapidità con cui l’intelligenza artificiale generativa può essere utilizzata come arma per scopi dannosi. Senza una solida moderazione e linee guida etiche, piattaforme come X rischiano di diventare terreno fertile per lo sfruttamento e l’abuso.
L’incidente ricorda chiaramente che il rapido progresso della tecnologia dell’intelligenza artificiale richiede uno sviluppo altrettanto rapido di misure di sicurezza e quadri giuridici per prevenire danni.
