Instagram continua inseguro para jovens adolescentes, revela novo estudo

19

Apesar dos esforços da Meta para melhorar a segurança, um estudo recente indica que uma parte significativa dos adolescentes entre os 13 e os 15 anos continua a encontrar conteúdos nocivos e contactos indesejados no Instagram. As conclusões, encomendadas por grupos de defesa das crianças, levantam sérias questões sobre a eficácia das salvaguardas atuais.

Prevalência preocupante de conteúdo impróprio

Quase 60% dos adolescentes entre 13 e 15 anos relataram ter recebido conteúdo inseguro ou mensagens indesejadas nos últimos seis meses, mesmo após a implementação de contas para adolescentes da Meta, projetadas para restringir a exposição a interações adultas. O estudo, baseado num inquérito a 800 adolescentes norte-americanos, destaca que estes problemas persistem apesar das alegações da empresa de medidas de segurança melhoradas.

O relatório detalha várias experiências alarmantes:

  • 40% dos jovens adolescentes receberam mensagens sugerindo desejo de relacionamentos sexuais ou românticos.
  • 35% encontraram contato indesejado de outros usuários.
  • 27% foram expostos a discurso de ódio, conteúdo racista ou material discriminatório.

Os adolescentes estão se tornando insensíveis à exposição prejudicial

Talvez o mais preocupante seja o fato de o estudo ter descoberto que muitos adolescentes ficaram insensíveis ao fluxo constante de material impróprio. A maioria admitiu ignorar conteúdo perturbador porque “se acostumou com isso”, sinalizando uma perigosa normalização de experiências on-line prejudiciais. Isto sugere que a exposição a longo prazo pode não só não proteger as crianças, mas também levar à dessensibilização emocional.

A confiança da Meta na IA e nas preocupações contínuas

A Meta mudou cada vez mais para a moderação de conteúdo orientada por IA, reduzindo a dependência de revisores humanos. Embora a empresa argumente que esta abordagem melhora a eficiência, surgiram relatórios indicando que a própria IA pode apresentar falhas. Descobertas recentes revelaram documentos internos que mostram que o Meta permite que a IA se envolva em conversas “românticas ou sensuais” com crianças, levantando preocupações éticas e de segurança.

Por que isso é importante

A persistência de conteúdo inseguro no Instagram não é apenas uma questão técnica; é um problema sistêmico com implicações para o desenvolvimento infantil e o bem-estar mental. Os algoritmos da plataforma priorizam o envolvimento, muitas vezes em detrimento da segurança. Até que a Meta implemente salvaguardas mais rigorosas e priorize a proteção do usuário em detrimento do lucro, os jovens adolescentes permanecerão vulneráveis ​​à exploração e exposição a materiais nocivos.

O estudo ecoa críticas anteriores de ex-executivos da Meta, sugerindo que a empresa falhou repetidamente em abordar adequadamente as preocupações com a segurança infantil. É um lembrete claro de que simplesmente criar “contas de adolescentes” é insuficiente sem mudanças substanciais nas políticas de moderação de conteúdo e na transparência algorítmica.