Un nouveau rapport du Tech Transparency Project (TTP) affirme qu’Apple et Google n’ont pas réussi à appliquer leurs propres politiques de sécurité, promouvant ainsi les applications « nudify » qui violent leurs conditions d’utilisation. Ces applications utilisent l’IA générative pour créer des images intimes non consensuelles, en supprimant les vêtements des photos d’individus (principalement des femmes) pour créer de la pornographie deepfake.
La faille dans la gouvernance de l’App Store
Alors qu’Apple et Google maintiennent des politiques strictes contre les « contenus ouvertement sexuels ou pornographiques », les enquêtes suggèrent un écart important entre les règles écrites et leur application réelle.
Les principales conclusions de l’enquête du TTP sont les suivantes :
– Disponibilité persistante : Malgré les mesures de répression précédentes, des centaines de ces applications restent accessibles sur les deux plates-formes.
– Vulnérabilités de recherche : Les utilisateurs peuvent toujours rechercher des termes provocateurs tels que “nudify”, “undress” et “deepnude.”
– Promotion directe : Plus inquiétant encore, le rapport affirme que les plateformes ont activement augmenté la visibilité de ces applications. Google a été particulièrement connu pour proposer un “carrousel de publicités” pour certaines des applications les plus sexuellement explicites découvertes.
– Marketing explicite : Une analyse des 10 meilleures applications de cette catégorie a révélé que 40 % annonçaient explicitement leur capacité à rendre les femmes nues ou légèrement vêtues.
La motivation du profit par rapport à la sécurité des utilisateurs
La prolifération de ces applications soulève une question cruciale : Pourquoi les plus grands gardiens technologiques au monde permettent-ils que cela continue ?
La réponse réside peut-être dans l’économie de l’écosystème des applications. Selon les données de la société d’analyse AppMagic, ces applications « nudify » ont généré plus de 122 millions de dollars de revenus sur toute leur durée de vie et ont été téléchargées environ 483 millions de fois.
Étant donné qu’Apple et Google gagnent des revenus importants grâce à la publicité et aux commissions sur les abonnements payants, il existe une dissuasion financière intégrée pour supprimer de manière agressive les logiciels très performants, bien que contraires à la politique. Cela crée une tension entre le rôle des plateformes en tant que « gardiens moraux » et leur rôle en tant qu’entreprises à but lucratif.
La menace croissante des Deepfakes IA
Ce problème fait partie d’une tendance plus large et plus dangereuse impliquant l’IA générative. La technologie a rendu la création de contenu sexuel non consensuel plus rapide, plus facile et plus convaincante que jamais.
L’ampleur du problème est immense. Pour rappel, plus tôt cette année, les utilisateurs de la plateforme d’IA Grok auraient généré 1,4 million de deepfakes sexualisés en seulement neuf jours. Malgré les appels des sénateurs américains à supprimer ces outils des magasins d’applications, les principales plateformes ont mis du temps à agir.
Réponses d’Apple et de Google
Les deux sociétés ont publié des déclarations défendant leur surveillance :
- Google maintient que Google Play n’autorise pas les contenus à caractère sexuel et affirme que de nombreuses applications signalées ont déjà été suspendues.
- Apple a signalé avoir supprimé 15 applications signalées et émis des avertissements à six autres développeurs, tout en bloquant également plusieurs termes de recherche identifiés par le TTP.
“Cette source de revenus pourrait être la raison pour laquelle les deux sociétés ont été peu vigilantes lorsqu’il s’agit de nudifier les applications qui violent leurs politiques”, conclut le rapport du TTP.
Conclusion : La présence d’applications « nudify » sur les principales plates-formes met en évidence un échec systémique dans la réglementation des dommages causés par l’IA, ce qui suggère que les revenus massifs générés par ces outils pourraient saper les politiques de sécurité destinées à protéger les utilisateurs.
