Um novo relatório do Tech Transparency Project (TTP) alega que a Apple e o Google não conseguiram aplicar suas próprias políticas de segurança, promovendo efetivamente aplicativos “nudificados” que violam seus termos de serviço. Esses aplicativos usam IA generativa para criar imagens íntimas não consensuais, tirando roupas de fotos de indivíduos – predominantemente mulheres – para criar pornografia deepfake.
A lacuna na governança da App Store
Embora tanto a Apple quanto o Google mantenham políticas rígidas contra “material abertamente sexual ou pornográfico”, as investigações sugerem uma lacuna significativa entre as regras escritas e a aplicação real.
As principais conclusões da investigação TTP incluem:
– Disponibilidade persistente: Apesar das medidas repressivas anteriores, centenas desses aplicativos permanecem acessíveis em ambas as plataformas.
– Vulnerabilidades de pesquisa: os usuários ainda podem pesquisar termos provocativos, como “nudificar”, “despir-se” e “deepnude”.
– Promoção direta: O mais preocupante é que o relatório afirma que as plataformas aumentaram ativamente a visibilidade desses aplicativos. O Google foi especificamente conhecido por apresentar um “carrossel de anúncios” para alguns dos aplicativos sexualmente explícitos descobertos.
– Marketing explícito: uma análise dos 10 principais aplicativos nesta categoria revelou que 40% anunciavam explicitamente sua capacidade de exibir mulheres nuas ou seminuas.
A motivação do lucro versus segurança do usuário
A proliferação desses aplicativos levanta uma questão crítica: Por que os maiores guardiões de tecnologia do mundo estão permitindo que isso continue?
A resposta pode estar na economia do ecossistema de aplicativos. De acordo com dados da empresa de análise AppMagic, esses aplicativos “nudificar” geraram mais de US$ 122 milhões em receita vitalícia e foram baixados aproximadamente 483 milhões de vezes.
Dado que a Apple e a Google obtêm receitas significativas através de publicidade e comissões sobre subscrições pagas, existe um desincentivo financeiro incorporado para remover agressivamente software de alto desempenho, embora que viole as políticas. Isto cria uma tensão entre o papel das plataformas como “guardiãs morais” e o seu papel como corporações com fins lucrativos.
A crescente ameaça dos deepfakes de IA
Este problema faz parte de uma tendência mais ampla e perigosa que envolve IA generativa. A tecnologia tornou a criação de conteúdo sexual não consensual mais rápida, fácil e convincente do que nunca.
A escala do problema é imensa. Para contextualizar, no início deste ano, os usuários da plataforma de IA Grok geraram 1,4 milhão de deepfakes sexualizados em apenas um período de nove dias. Apesar dos apelos dos senadores dos EUA para remover essas ferramentas das lojas de aplicativos, as principais plataformas têm demorado a agir.
Respostas da Apple e do Google
Ambas as empresas emitiram declarações defendendo sua supervisão:
- Google afirma que o Google Play não permite conteúdo sexual e afirma que muitos dos aplicativos sinalizados já foram suspensos.
- A Apple informou que removeu 15 aplicativos sinalizados e emitiu avisos para outros seis desenvolvedores, ao mesmo tempo que bloqueou vários termos de pesquisa identificados pelo TTP.
“Esse fluxo de receita pode ser o motivo pelo qual as duas empresas têm sido menos vigilantes quando se trata de nudificar aplicativos que violam suas políticas”, conclui o relatório da TTP.
Conclusão: A presença de aplicações “nudificar” nas principais plataformas destaca uma falha sistémica na regulação dos danos provocados pela IA, sugerindo que a enorme receita gerada por estas ferramentas pode estar a minar as políticas de segurança destinadas a proteger os utilizadores.





















