Instagram reste dangereux pour les jeunes adolescents, révèle une nouvelle étude

23

Malgré les efforts de Meta pour améliorer la sécurité, une étude récente indique qu’une partie importante des adolescents âgés de 13 à 15 ans continuent d’être confrontés à des contenus préjudiciables et à des contacts indésirables sur Instagram. Les résultats, commandés par des groupes de défense des droits des enfants, soulèvent de sérieuses questions sur l’efficacité des mesures de protection actuelles.

Prévalence troublante du contenu inapproprié

Près de 60 % des adolescents âgés de 13 à 15 ans ont déclaré avoir été confrontés à du contenu dangereux ou à des messages indésirables au cours des six derniers mois, même après la mise en œuvre par Meta de comptes pour adolescents conçus pour limiter l’exposition aux interactions entre adultes. L’étude, basée sur une enquête menée auprès de 800 adolescents américains, souligne que ces problèmes persistent malgré les affirmations de l’entreprise concernant l’amélioration des mesures de sécurité.

Le rapport détaille plusieurs expériences alarmantes :

  • 40% des jeunes adolescents ont reçu des messages suggérant un désir de relations sexuelles ou amoureuses.
  • 35 % ont rencontré des contacts indésirables de la part d’autres utilisateurs.
  • 27 % ont été exposés à des discours de haine, à des contenus racistes ou discriminatoires.

Les adolescents deviennent désensibilisés aux expositions nocives

Le plus inquiétant peut-être est que l’étude révèle que de nombreux adolescents sont devenus insensibles au flux constant de contenus inappropriés. Une majorité a admis avoir ignoré les contenus dérangeants parce qu’elle s’y était « habituée », ce qui signale une dangereuse normalisation des expériences en ligne nuisibles. Cela suggère qu’une exposition à long terme pourrait non seulement ne pas protéger les enfants, mais également conduire à une désensibilisation émotionnelle.

Dépendance de Meta à l’égard de l’IA et préoccupations persistantes

Meta s’oriente de plus en plus vers une modération de contenu basée sur l’IA, réduisant ainsi le recours aux évaluateurs humains. Bien que l’entreprise affirme que cette approche améliore l’efficacité, des rapports ont été publiés indiquant que l’IA elle-même pourrait être défectueuse. Des découvertes récentes ont révélé des documents internes montrant Meta permettant à l’IA de s’engager dans des conversations « romantiques ou sensuelles » avec des enfants, soulevant des problèmes d’éthique et de sécurité.

Pourquoi c’est important

La persistance de contenus dangereux sur Instagram n’est pas seulement un problème technique ; il s’agit d’un problème systémique ayant des implications sur le développement et le bien-être mental de l’enfant. Les algorithmes de la plateforme donnent la priorité à l’engagement, souvent au détriment de la sécurité. Jusqu’à ce que Meta mette en œuvre des mesures de protection plus rigoureuses et donne la priorité à la protection des utilisateurs plutôt qu’au profit, les jeunes adolescents resteront vulnérables à l’exploitation et à l’exposition à du matériel nuisible.

L’étude fait écho aux critiques antérieures d’anciens dirigeants de Meta, suggérant que l’entreprise a échoué à plusieurs reprises à répondre de manière adéquate aux problèmes de sécurité des enfants. Cela nous rappelle brutalement que la simple création de « comptes pour adolescents » ne suffit pas sans des changements substantiels dans les politiques de modération du contenu et la transparence algorithmique.