Meta a, pour la première fois, été légalement tenue responsable de la conception intentionnelle de plateformes mettant en danger la sécurité des enfants. Les récentes décisions rendues au Nouveau-Mexique et à Los Angeles marquent un tournant dans la manière dont les entreprises technologiques sont perçues : non pas comme des plateformes neutres, mais comme des entités pouvant être tenues responsables des caractéristiques addictives et nocives intégrées à leurs produits. Ces affaires ne concernent pas le contenu ; il s’agit de comment les plateformes sont conçues pour exploiter la psychologie humaine, en particulier parmi les jeunes utilisateurs.
Le vent juridique tourne
Le jury du Nouveau-Mexique a déclaré Meta responsable en vertu de la loi sur les pratiques déloyales de l’État, ce qui lui a valu une amende de 375 millions de dollars. Simultanément, un jury de Los Angeles a déterminé Meta (70 %) et YouTube (30 %) responsables de la détresse mentale d’un plaignant de 20 ans, ce qui a entraîné une amende combinée de 6 millions de dollars. Bien que ces montants puissent sembler minimes pour un géant de la technologie comme Meta, les experts juridiques préviennent que ce n’est qu’un début. Des milliers de cas similaires sont en cours et 40 procureurs généraux d’État ont intenté des poursuites parallèles.
Ce changement de précédent juridique est important car il contourne les protections habituelles accordées aux sociétés de médias sociaux en vertu des arguments du premier amendement. Les tribunaux se concentrent désormais sur les choix de conception – défilement sans fin, notifications constantes et fonctionnalités conçues pour une utilisation compulsive – plutôt que sur le contenu généré par l’utilisateur. Comme l’explique l’avocate Allison Fitzpatrick, cette stratégie reflète les procès couronnés de succès contre l’industrie du tabac, ciblant les mécanismes de dépendance au lieu de blâmer les consommateurs individuels.
Des documents internes révèlent une manipulation délibérée
Les méta-documents internes récemment descellés dressent un tableau accablant. Des rapports de 2019 montrent que l’entreprise a reconnu que ses plates-formes ont un impact négatif sur le bien-être des utilisateurs, tout en continuant à donner la priorité à « l’engagement des adolescents ». Une étude a souligné que 12,5 % des utilisateurs présentaient des modèles d’utilisation problématiques, tandis que les dirigeants discutaient de stratégies pour maximiser la rétention, suggérant même des moyens de contourner le contrôle parental (« jeter un coup d’œil furtif à votre téléphone en plein milieu de la chimie 🙂 », lit-on dans un e-mail interne).
Mark Zuckerberg lui-même aurait commenté la nécessité d’éviter d’informer les parents de l’utilisation des adolescents. Ces révélations confirment que Meta était pleinement consciente des méfaits mais recherchait activement des conceptions addictives pour stimuler l’engagement. Malgré cela, Meta maintient qu’elle prend des mesures, en soulignant de nouvelles fonctionnalités de sécurité telles que les comptes Instagram Teen avec des paramètres de confidentialité par défaut et des rappels de délai.
Les limites de la régulation
Le gouvernement américain répond par des efforts législatifs, mais de nombreux projets de loi sont critiqués pour avoir potentiellement donné la priorité à la surveillance et à la censure plutôt qu’à la sécurité réelle des enfants. La loi sur la sécurité des enfants en ligne, bien que bénéficiant du soutien de grandes entreprises technologiques, a suscité des réactions négatives face à des clauses susceptibles d’anticiper les réglementations de l’État et de fermer les voies juridiques aux victimes. Kelly Stonelake, un ancien directeur de Meta qui poursuit l’entreprise pour discrimination présumée, met en garde contre de tels excès, arguant que la solution nécessite une approche « complexe et nuancée ».
Le problème principal ne consiste pas simplement à bloquer les contenus préjudiciables ; il s’agit de démanteler les caractéristiques de conception qui exploitent les vulnérabilités des cerveaux en développement. Les documents internes de Meta prouvent que l’entreprise savait ce qu’elle faisait. Le litige en cours imposera probablement plus de transparence et entraînera potentiellement des sanctions financières plus importantes.
En fin de compte, ces cas représentent un moment critique dans le débat sur la responsabilité technologique. La question est maintenant de savoir si des pressions juridiques supplémentaires obligeront Meta – et d’autres plateformes – à repenser fondamentalement leurs produits de manière à donner la priorité au bien-être des utilisateurs plutôt qu’aux mesures d’engagement à court terme.





















