Amerykańskie jury wydało jednoznaczny werdykt przeciwko Meta, nakazując firmie zapłatę 375 milionów dolarów za świadome wykorzystywanie słabych punktów dzieci i ukrywanie zagrożeń występujących na jej platformach. Wtorkowe orzeczenie stanowi punkt zwrotny w pociąganiu gigantów mediów społecznościowych do odpowiedzialności za rzeczywiste szkody spowodowane ich decyzjami projektowymi.
Istota zarzutów: wyzysk i tuszowanie
Jury uznało Meta za zaangażowaną w „nieprzemyślane” praktyki biznesowe, które w sposób nieuczciwy wymierzone były w dzieci i wykorzystywały ich brak doświadczenia dla zysku. To nie był przypadkowy błąd; ława przysięgłych stwierdziła tysiące naruszeń ustawy o nieuczciwych praktykach stanu Nowy Meksyk, co dowodzi systematycznego wyzysku. Sednem sprawy były dowody na to, że Meta aktywnie kierowała młodych użytkowników do szkodliwych treści, w tym pornografii dziecięcej i niemoderowanych grup ułatwiających komercyjne wykorzystywanie seksualne.
Jest to ważne, ponieważ potwierdza to, co wielu podejrzewało od dawna: platformy mediów społecznościowych nie są narzędziami neutralnymi. Zostały zaprojektowane tak, aby maksymalizować zaangażowanie, nawet kosztem dobra dzieci. Precedens prawny ustanowiony w tej sprawie może zmusić Meta i inne firmy do fundamentalnego przemyślenia swojego podejścia do bezpieczeństwa dzieci.
Jak rozwinęła się sprawa: tajne operacje i dokumenty wewnętrzne
Prokurator generalny Nowego Meksyku Raul Torres wszczął pozew w 2023 r. po dochodzeniu, które dotyczyło wykorzystania fałszywych kont udających 14-latków. Konta te zostały narażone na wulgarne treści i skierowane do niebezpiecznych społeczności, co udowadnia, że platformy Meta to „najlepsze miejsca dla drapieżników”.
Kluczowe było zbadanie przez jury wewnętrznej korespondencji Meta i raportów dotyczących bezpieczeństwa dzieci. Wysłuchali zeznań dyrektorów, inżynierów, sygnalistów i ekspertów, w tym pytań o to, czy dyrektorzy Meta, tacy jak Mark Zuckerberg i Adam Mosseri, wiedzieli, czy celowo wprowadzali opinię publiczną w błąd co do bezpieczeństwa platformy. Jury przyjrzało się także niepowodzeniu Meta w egzekwowaniu ograniczeń wiekowych oraz roli algorytmów we wzmacnianiu szkodliwych treści, w tym materiałów dotyczących samobójstw nastolatków.
Czynnik zależności: rozpoznany, ale nierozpoznany
W pozwie wskazano również, że Meta nie rozwiązała problemu uzależnienia od mediów społecznościowych. Chociaż Meta oficjalnie nie przyznaje się do uzależnienia, dyrektorzy przyznali, że jest to „problematyczne używanie” i oświadczyli, że chcą, aby użytkownicy „czuli się dobrze” w związku z czasem spędzonym na platformach. Wykazuje wyrachowaną obojętność na uzależniający charakter swoich produktów, przedkładając zaangażowanie nad zdrowie użytkownika.
Co będzie dalej: dwuetapowa wersja próbna
Meta zapowiedział odwołanie się od tej decyzji, ale bezpośrednie konsekwencje są znaczące. Druga faza procesu, która odbędzie się w maju, ustali, czy platformy Meta stanowią „szkodę publiczną” wymagającą wkładu finansowego na rzecz programów publicznych, które mają zaradzić tej szkodzie.
To tylko jedna z wielu rzeczy do zrobienia. Ponad 40 prokuratorów generalnych stanowych złożyło podobne pozwy, oskarżając Metę o pogłębienie kryzysu zdrowia psychicznego młodzieży poprzez rozwój cech uzależniających. Równoległy „wstępny pozew” toczy się w Kalifornii, w którym 19-letnia powódka twierdzi, że Instagram i YouTube pogorszyły jej depresję i myśli samobójcze. Oskarżenia skupiają się na celowych wyborach projektowych, które naśladują taktykę kasyna w celu maksymalizacji uzależnienia.
Decyzja wysyła jasny komunikat: firmy nie mogą czerpać korzyści z wykorzystywania słabych punktów dzieci bez ponoszenia konsekwencji. To przełomowy przypadek, który może zmienić przyszłość regulacji mediów społecznościowych i odpowiedzialności korporacyjnej.
Od wyniku tych procesów sądowych zadecyduje, czy platformy mediów społecznościowych będą zmuszone przedkładać bezpieczeństwo użytkowników nad zyski, ostatecznie zajmując się systemowymi szkodami, jakie wyrządziły młodym ludziom.




















