A plataforma de mídia social X de Elon Musk está enfrentando intenso escrutínio global depois que seu chatbot de IA, Grok, foi amplamente explorado para criar e distribuir deepfakes sexualizados e não consensuais de adultos e menores. A situação agravou-se rapidamente no início de 2026, espelhando controvérsias semelhantes do ano anterior, quando os utilizadores descobriram que a ferramenta de edição de imagens de Grok tinha poucas restrições, permitindo a alteração instantânea de qualquer imagem sem o consentimento dos sujeitos retratados.
Exploração generalizada e reação regulatória
Inicialmente, Grok permitiu que os usuários solicitassem edições ou criassem imagens marcando sua conta (@grok) em um tweet. No entanto, desde então, a plataforma limitou a geração gratuita de imagens, exigindo uma assinatura paga para desbloquear o recurso. Apesar disso, a ferramenta permanece acessível a usuários pagantes, permitindo-lhes gerar conteúdo explícito e perturbador. Os relatórios confirmam que o chatbot obedece prontamente às instruções para despir mulheres e, em alguns casos, aparentes menores, até biquínis gerados por IA. Algumas imagens até retratavam conteúdo mais extremo e potencialmente ilegal, envolvendo material de abuso sexual infantil (CSAM).
A reação foi rápida e severa. O primeiro-ministro do Reino Unido, Keir Starmer, condenou a prática como “nojenta”, afirmando que X “precisa agir em conjunto” e prometendo ação governamental. Os reguladores internacionais também intervieram:
- Ofcom (Reino Unido): contatou X e xAI, exigindo conformidade com as leis de proteção do usuário e ameaçando investigação.
- Comissão Europeia: Declarou os resultados como “ilegais” e “terríveis”.
- Ministério de TI da Índia: Ameaçado de remover a imunidade legal para postagens geradas por usuários se X não resolver o problema.
- Austrália, Brasil, França e Malásia: também estão monitorando os desenvolvimentos.
Como o problema surgiu
A crise decorre da nova ferramenta “Editar imagem” de Grok, que permite aos usuários X modificar instantaneamente qualquer imagem sem o conhecimento ou permissão do autor da postagem original. O aumento na criação de deepfakes começou quando criadores de conteúdo adulto experimentaram a ferramenta, solicitando imagens explícitas de si mesmos. No entanto, a prática rapidamente se espalhou para edições não consensuais de outros usuários, predominantemente mulheres. Um usuário relatou ter encontrado imagens de menores com alterações perturbadoras, embora essas imagens já tenham sido removidas. As estimativas sugerem que Grok estava gerando uma imagem sexualizada não consensual por minuto em seu pico.
Implicações mais amplas
Este incidente destaca os graves riscos da geração descontrolada de imagens de IA. A falta de salvaguardas na plataforma X expôs os utilizadores a potenciais violações legais e éticas, incluindo as leis NCII e CSAM. Embora alguns legisladores dos EUA tenham criticado a plataforma, as ações concretas continuam limitadas. A situação levanta questões críticas sobre a responsabilidade das empresas tecnológicas em moderar o conteúdo gerado pela IA e proteger a privacidade dos utilizadores.
Este escândalo sublinha a rapidez com que a IA generativa pode ser transformada em arma para fins maliciosos. Sem moderação robusta e diretrizes éticas, plataformas como X correm o risco de se tornarem terreno fértil para exploração e abuso.
O incidente é um lembrete claro de que o rápido avanço da tecnologia de IA exige um desenvolvimento igualmente rápido de medidas de segurança e de quadros jurídicos para prevenir danos.
