Um júri dos EUA desferiu um golpe decisivo contra a Meta, multando a empresa em 375 milhões de dólares por explorar conscientemente as vulnerabilidades das crianças e ocultar os perigos presentes nas suas plataformas. A decisão, emitida na terça-feira, marca um momento crucial na responsabilização dos gigantes das redes sociais pelos danos no mundo real infligidos pelas suas escolhas de design.
As principais conclusões: exploração e ocultação
O júri considerou a Meta envolvida em práticas comerciais “injustas” que visavam injustamente as crianças, aproveitando a sua inexperiência para obter lucro. Não foi uma questão de supervisão acidental; os jurados documentaram milhares de violações da Lei de Práticas Desleais do Novo México, provando a exploração sistemática. O caso dependia de evidências que demonstravam que o Meta direcionava ativamente os jovens usuários para conteúdos nocivos, incluindo pornografia infantil e grupos não moderados que facilitavam a exploração sexual comercial.
Isto é importante porque confirma o que muitos já suspeitavam: as plataformas de redes sociais não são ferramentas neutras. Eles são projetados para maximizar o envolvimento, mesmo às custas do bem-estar das crianças. O precedente legal estabelecido neste caso poderia forçar a Meta e outras empresas a repensar fundamentalmente a sua abordagem à segurança infantil.
Como o caso se desenrolou: evidências secretas e documentos internos
O procurador-geral do Novo México, Raul Torrez, iniciou o processo em 2023, após uma investigação que implantou contas secretas se passando por jovens de 14 anos. Essas contas foram expostas a conteúdo explícito e direcionadas a comunidades prejudiciais, provando que as plataformas da Meta são “locais privilegiados para predadores”.
Crucialmente, os jurados examinaram comunicações internas da Meta e relatórios sobre segurança infantil. Eles ouviram depoimentos de executivos, engenheiros, denunciantes e especialistas, inclusive questionando se executivos da Meta, como Mark Zuckerberg e Adam Mosseri, enganaram conscientemente o público sobre a segurança da plataforma. O júri também considerou a falha do Meta em fazer cumprir suas restrições de idade e o papel dos algoritmos na amplificação de conteúdo prejudicial, incluindo material sobre suicídio de adolescentes.
O fator do vício: reconhecido, mas não admitido
O processo também destacou o fracasso da Meta em lidar com o vício em mídias sociais. Embora a Meta não reconheça oficialmente o vício, os executivos admitiram o “uso problemático” e admitiram querer que os usuários “se sintam bem” com o tempo que passam nas plataformas. Isto revela uma indiferença calculada à natureza viciante dos seus produtos, priorizando o envolvimento em detrimento da saúde do utilizador.
O que acontece a seguir: um teste em duas fases
Meta prometeu recorrer, mas as consequências imediatas são significativas. Uma segunda fase do teste, em Maio, determinará se as plataformas Meta constituem um “incómodo público” que exige contribuições financeiras para programas públicos que abordam os danos.
Este caso é apenas um entre muitos. Mais de 40 procuradores-gerais estaduais entraram com ações semelhantes, acusando Meta de alimentar uma crise de saúde mental juvenil ao projetar recursos viciantes. Um “julgamento de referência” paralelo está em andamento na Califórnia, com uma demandante de 19 anos alegando que o Instagram e o YouTube exacerbaram sua depressão e pensamentos suicidas. As alegações centram-se em escolhas deliberadas de design que refletem táticas de cassino para maximizar o vício.
A decisão envia uma mensagem clara: as empresas não podem lucrar com a exploração das vulnerabilidades das crianças sem consequências. Este é um caso marcante que poderá remodelar o futuro da regulamentação das redes sociais e da responsabilidade corporativa.
O resultado destes processos determinará se as plataformas de redes sociais serão forçadas a dar prioridade à segurança dos utilizadores em detrimento dos lucros, abordando finalmente os danos sistémicos que infligiram aos jovens.




















