Instagram sigue siendo inseguro para los adolescentes, según revela un nuevo estudio

6

A pesar de los esfuerzos de Meta por mejorar la seguridad, un estudio reciente indica que una parte significativa de los adolescentes de 13 a 15 años continúan encontrando contenido dañino y contacto no deseado en Instagram. Los hallazgos, encargados por grupos de defensa de la infancia, plantean serias dudas sobre la efectividad de las salvaguardias actuales.

Preocupante prevalencia de contenido inapropiado

Casi 60% de los adolescentes entre 13 y 15 informaron haber experimentado contenido inseguro o mensajes no deseados en los últimos seis meses, incluso después de la implementación por parte de Meta de Cuentas para Adolescentes diseñadas para restringir la exposición a interacciones con adultos. El estudio, basado en una encuesta de 800 adolescentes estadounidenses, destaca que estos problemas persisten a pesar de las afirmaciones de la empresa de haber mejorado las medidas de seguridad.

El informe detalla varias experiencias alarmantes:

  • 40% de los adolescentes jóvenes recibieron mensajes que sugerían un deseo de tener relaciones sexuales o románticas.
  • 35% encontró contactos no deseados de otros usuarios.
  • 27% estuvo expuesto a discursos de odio, contenido racista o material discriminatorio.

Los adolescentes se están volviendo insensibles a la exposición nociva

Quizás lo más preocupante es que el estudio encontró que muchos adolescentes se han vuelto insensibles al flujo constante de material inapropiado. La mayoría admitió ignorar el contenido perturbador porque “se han acostumbrado”, lo que indica una normalización peligrosa de las experiencias dañinas en línea. Esto sugiere que la exposición a largo plazo puede no sólo no proteger a los niños sino que también podría conducir a una desensibilización emocional.

La dependencia de Meta de la IA y las preocupaciones actuales

Meta se ha desplazado cada vez más hacia la moderación de contenido impulsada por IA, reduciendo la dependencia de revisores humanos. Si bien la compañía argumenta que este enfoque mejora la eficiencia, han surgido informes que indican que la propia IA puede tener fallas. Hallazgos recientes revelaron documentos internos que muestran que Meta permite a la IA entablar conversaciones “románticas o sensuales” con niños, lo que genera preocupaciones éticas y de seguridad.

Por qué esto es importante

La persistencia de contenido inseguro en Instagram no es simplemente una cuestión técnica; Es un problema sistémico con implicaciones para el desarrollo infantil y el bienestar mental. Los algoritmos de la plataforma priorizan el compromiso, a menudo a expensas de la seguridad. Hasta que Meta implemente salvaguardias más rigurosas y priorice la protección del usuario sobre las ganancias, los adolescentes seguirán siendo vulnerables a la explotación y la exposición a material dañino.

El estudio se hace eco de críticas anteriores de ex ejecutivos de Meta, lo que sugiere que la empresa ha fracasado repetidamente en abordar adecuadamente las preocupaciones sobre la seguridad infantil. Es un claro recordatorio de que la simple creación de “cuentas para adolescentes” no es suficiente sin cambios sustanciales en las políticas de moderación de contenido y la transparencia algorítmica.

Попередня статтяBeats Powerbeats Fit: una actualización menor, no la actualización que los fanáticos esperaban
Наступна статтяMacBook Neo de Apple: un paso audaz hacia un futuro más divertido