Apesar dos esforços da Meta para melhorar a segurança, um estudo recente indica que uma parte significativa dos adolescentes entre os 13 e os 15 anos continua a encontrar conteúdos nocivos e contactos indesejados no Instagram. As conclusões, encomendadas por grupos de defesa das crianças, levantam sérias questões sobre a eficácia das salvaguardas atuais.
Prevalência preocupante de conteúdo impróprio
Quase 60% dos adolescentes entre 13 e 15 anos relataram ter recebido conteúdo inseguro ou mensagens indesejadas nos últimos seis meses, mesmo após a implementação de contas para adolescentes da Meta, projetadas para restringir a exposição a interações adultas. O estudo, baseado num inquérito a 800 adolescentes norte-americanos, destaca que estes problemas persistem apesar das alegações da empresa de medidas de segurança melhoradas.
O relatório detalha várias experiências alarmantes:
- 40% dos jovens adolescentes receberam mensagens sugerindo desejo de relacionamentos sexuais ou românticos.
- 35% encontraram contato indesejado de outros usuários.
- 27% foram expostos a discurso de ódio, conteúdo racista ou material discriminatório.
Os adolescentes estão se tornando insensíveis à exposição prejudicial
Talvez o mais preocupante seja o fato de o estudo ter descoberto que muitos adolescentes ficaram insensíveis ao fluxo constante de material impróprio. A maioria admitiu ignorar conteúdo perturbador porque “se acostumou com isso”, sinalizando uma perigosa normalização de experiências on-line prejudiciais. Isto sugere que a exposição a longo prazo pode não só não proteger as crianças, mas também levar à dessensibilização emocional.
A confiança da Meta na IA e nas preocupações contínuas
A Meta mudou cada vez mais para a moderação de conteúdo orientada por IA, reduzindo a dependência de revisores humanos. Embora a empresa argumente que esta abordagem melhora a eficiência, surgiram relatórios indicando que a própria IA pode apresentar falhas. Descobertas recentes revelaram documentos internos que mostram que o Meta permite que a IA se envolva em conversas “românticas ou sensuais” com crianças, levantando preocupações éticas e de segurança.
Por que isso é importante
A persistência de conteúdo inseguro no Instagram não é apenas uma questão técnica; é um problema sistêmico com implicações para o desenvolvimento infantil e o bem-estar mental. Os algoritmos da plataforma priorizam o envolvimento, muitas vezes em detrimento da segurança. Até que a Meta implemente salvaguardas mais rigorosas e priorize a proteção do usuário em detrimento do lucro, os jovens adolescentes permanecerão vulneráveis à exploração e exposição a materiais nocivos.
O estudo ecoa críticas anteriores de ex-executivos da Meta, sugerindo que a empresa falhou repetidamente em abordar adequadamente as preocupações com a segurança infantil. É um lembrete claro de que simplesmente criar “contas de adolescentes” é insuficiente sem mudanças substanciais nas políticas de moderação de conteúdo e na transparência algorítmica.