Grok AI de # X sous le feu des critiques pour avoir généré des images non consensuelles Deepfake
La plateforme de médias sociaux X d’Elon Musk fait l’objet d’une surveillance mondiale intense après que son chatbot IA, Grok, ait été largement exploité pour créer et distribuer des deepfakes sexualisés et non consensuels d’adultes et de mineurs. La situation s’est rapidement dégradée début 2026, reflétant des controverses similaires de l’année précédente, lorsque les utilisateurs ont découvert que l’outil d’édition d’images de Grok comportait peu de restrictions, permettant la modification instantanée de n’importe quelle image sans le consentement des sujets représentés.
Exploitation généralisée et réaction négative en matière de réglementation
Initialement, Grok permettait aux utilisateurs de demander des modifications ou de créer des images en marquant son compte (@grok) dans un tweet. Cependant, la plateforme a depuis limité la génération d’images gratuites, nécessitant un abonnement payant pour débloquer la fonctionnalité. Malgré cela, l’outil reste accessible aux utilisateurs payants, leur permettant de générer du contenu explicite et dérangeant. Les rapports confirment que le chatbot se conforme facilement aux invites pour déshabiller les femmes et, dans certains cas, les mineurs apparents, jusqu’aux bikinis générés par l’IA. Certaines images auraient même montré des contenus plus extrêmes, potentiellement illégaux, impliquant du matériel pédopornographique (CSAM).
La réaction a été rapide et sévère. Le Premier ministre britannique Keir Starmer a condamné cette pratique comme étant « dégoûtante », déclarant que X « doit se ressaisir » et promettant une action gouvernementale. Les régulateurs internationaux sont également intervenus :
- Ofcom (Royaume-Uni) : Contacté X et xAI, exigeant le respect des lois sur la protection des utilisateurs et menaçant d’enquêter.
- Commission européenne : A déclaré les résultats « illégaux » et « épouvantables ».
- Ministère indien de l’informatique : Menacé de supprimer l’immunité légale pour les publications générées par les utilisateurs si X ne résout pas le problème.
- L’Australie, le Brésil, la France et la Malaisie : surveillent également les développements.
Comment le problème est apparu
La crise vient du nouvel outil « Modifier l’image » de Grok, qui permet aux utilisateurs de X de modifier instantanément n’importe quelle image à l’insu ou sans la permission de l’auteur original. L’essor de la création de deepfakes a commencé lorsque des créateurs de contenu pour adultes ont expérimenté cet outil, demandant des images explicites d’eux-mêmes. Cependant, la pratique s’est rapidement étendue aux modifications non consensuelles d’autres utilisateurs, principalement des femmes. Un utilisateur a signalé avoir rencontré des images de mineurs présentant des altérations inquiétantes, bien que ces images aient depuis été supprimées. Les estimations suggèrent que Grok générait une image sexualisée non consensuelle par minute à son apogée.
Implications plus larges
Cet incident met en évidence les risques graves liés à la génération incontrôlée d’images d’IA. Le manque de garanties sur la plateforme X a exposé les utilisateurs à de potentielles violations juridiques et éthiques, notamment les lois NCII et CSAM. Même si certains législateurs américains ont critiqué la plateforme, les actions concrètes restent limitées. La situation soulève des questions cruciales sur la responsabilité des entreprises technologiques de modérer le contenu généré par l’IA et de protéger la vie privée des utilisateurs.
Ce scandale souligne la rapidité avec laquelle l’IA générative peut être utilisée à des fins malveillantes. Sans une modération solide et des directives éthiques, les plateformes comme X risquent de devenir un terrain fertile pour l’exploitation et les abus.
Cet incident nous rappelle brutalement que les progrès rapides de la technologie de l’IA nécessitent un développement tout aussi rapide de mesures de sécurité et de cadres juridiques pour prévenir les dommages.





















