A new report by the Tech Transparency Project (TTP) alleges that Apple and Google have failed to enforce their own safety policies, effectively promoting “nudify” apps that violate their terms of service. Queste applicazioni utilizzano l’intelligenza artificiale generativa per creare immagini intime non consensuali, rimuovendo gli indumenti dalle foto di individui, prevalentemente donne, per creare pornografia deepfake.
La scappatoia nella governance dell’App Store
Sebbene sia Apple che Google mantengano politiche rigorose contro “materiale apertamente sessuale o pornografico”, le indagini suggeriscono un divario significativo tra le norme scritte e l’effettiva applicazione.
I principali risultati dell’indagine TTP includono:
– Disponibilità persistente: nonostante le precedenti misure repressive, centinaia di queste app rimangono accessibili su entrambe le piattaforme.
– Vulnerabilità nella ricerca: gli utenti possono comunque cercare termini provocatori come “nudificare”, “spogliarsi” e “nudo profondo”.
– Promozione diretta: La cosa più preoccupante è che il rapporto afferma che le piattaforme hanno attivamente aumentato la visibilità di queste app. Google è stato particolarmente notato per aver presentato un “carosello di annunci” per alcune delle applicazioni sessualmente più esplicite scoperte.
– Marketing esplicito: un’analisi delle 10 migliori app di questa categoria ha rivelato che il 40% pubblicizzava esplicitamente la propria capacità di rappresentare donne nude o poco vestite.
La motivazione del profitto contro la sicurezza dell’utente
La proliferazione di queste app solleva una domanda fondamentale: Perché i maggiori guardiani tecnologici del mondo permettono che ciò continui?
La risposta potrebbe risiedere nell’economia dell’ecosistema delle app. Secondo i dati della società di analisi AppMagic, queste app di “nudificazione” hanno generato oltre 122 milioni di dollari di entrate complessive e sono state scaricate circa 483 milioni di volte.
Poiché Apple e Google ottengono entrate significative attraverso la pubblicità e le commissioni sugli abbonamenti a pagamento, esiste un disincentivo finanziario incorporato a rimuovere in modo aggressivo software ad alte prestazioni, anche se viola le politiche. Ciò crea una tensione tra il ruolo delle piattaforme come “guardiani morali” e il loro ruolo di società orientate al profitto.
La crescente minaccia dei deepfake IA
Questo problema fa parte di una tendenza più ampia e pericolosa che coinvolge l’intelligenza artificiale generativa. La tecnologia ha reso la creazione di contenuti sessuali non consensuali più veloce, più facile e più convincente che mai.
La portata del problema è immensa. Per fare un esempio, all’inizio di quest’anno, gli utenti della piattaforma di intelligenza artificiale Grok avrebbero generato 1,4 milioni di deepfake sessualizzati in soli nove giorni. Nonostante le richieste dei senatori statunitensi di rimuovere tali strumenti dagli app store, le principali piattaforme sono state lente ad agire.
Risposte di Apple e Google
Entrambe le società hanno rilasciato dichiarazioni in difesa della loro supervisione:
- Google sostiene che Google Play non ammette contenuti di natura sessuale e afferma che molte delle app segnalate sono già state sospese.
- Apple ha riferito di aver rimosso 15 app contrassegnate e di aver emesso avvisi ad altri sei sviluppatori, bloccando anche diversi termini di ricerca identificati dal TTP.
“Questo flusso di entrate potrebbe essere il motivo per cui le due società sono state poco vigili quando si tratta di nudizzare le app che violano le loro politiche”, conclude il rapporto TTP.
Conclusione: La presenza di app “nudify” sulle principali piattaforme evidenzia un fallimento sistemico nel regolare i danni causati dall’intelligenza artificiale, suggerendo che le massicce entrate generate da questi strumenti potrebbero compromettere le politiche di sicurezza intese a proteggere gli utenti.
