Una giuria statunitense ha sferrato un colpo decisivo contro Meta, multando l’azienda di 375 milioni di dollari per aver sfruttato consapevolmente le vulnerabilità dei bambini e aver nascosto i pericoli presenti sulle sue piattaforme. La sentenza, emessa martedì, segna un momento cruciale nel ritenere i giganti dei social media responsabili del danno reale inflitto dalle loro scelte progettuali.
I risultati principali: sfruttamento e occultamento
La giuria ha ritenuto che Meta fosse coinvolta in pratiche commerciali “inconcepibili” che prendevano di mira ingiustamente i bambini, sfruttando la loro inesperienza a scopo di lucro. Non si è trattato di una svista accidentale; I giurati hanno documentato migliaia di violazioni dell’Unfair Practices Act del New Mexico, dimostrando lo sfruttamento sistematico. Il caso si basava su prove che dimostravano che Meta indirizzava attivamente i giovani utenti verso contenuti dannosi, inclusa la pornografia infantile e gruppi non moderati che facilitavano lo sfruttamento sessuale a fini commerciali.
Ciò è importante perché conferma ciò che molti sospettavano da tempo: le piattaforme di social media non sono strumenti neutrali. Sono progettati per massimizzare il coinvolgimento, anche a scapito del benessere dei bambini. Il precedente legale stabilito da questo caso potrebbe costringere Meta e altre società a riconsiderare radicalmente il loro approccio alla sicurezza dei bambini.
Come si è svolto il caso: prove sotto copertura e documenti interni
Il procuratore generale del New Mexico Raul Torrez ha avviato la causa nel 2023, a seguito di un’indagine che ha utilizzato account sotto copertura che si spacciavano per quattordicenni. Questi account erano esposti a contenuti espliciti e diretti verso comunità dannose, dimostrando che le piattaforme di Meta sono “luoghi privilegiati per i predatori”.
Fondamentalmente, i giurati hanno esaminato le comunicazioni interne di Meta e i rapporti sulla sicurezza dei bambini. Hanno ascoltato le testimonianze di dirigenti, ingegneri, informatori ed esperti, chiedendosi se dirigenti di Meta come Mark Zuckerberg e Adam Mosseri abbiano consapevolmente ingannato il pubblico sulla sicurezza della piattaforma. La giuria ha anche considerato l’incapacità di Meta di far rispettare i limiti di età e il ruolo degli algoritmi nell’amplificare contenuti dannosi, compreso il materiale sui suicidi di adolescenti.
Il fattore dipendenza: riconosciuto ma non ammesso
La causa ha anche evidenziato l’incapacità di Meta di affrontare la dipendenza dai social media. Anche se Meta non riconosce ufficialmente la dipendenza, i dirigenti hanno ammesso un “uso problematico” e hanno ammesso di volere che gli utenti “si sentissero bene” durante il tempo trascorso sulle piattaforme. Ciò rivela una calcolata indifferenza verso la natura di dipendenza dei suoi prodotti, dando priorità al coinvolgimento rispetto alla salute dell’utente.
Cosa succede dopo: una sperimentazione in due fasi
Meta ha promesso di ricorrere in appello, ma le conseguenze immediate sono significative. Una seconda fase del processo a maggio determinerà se le piattaforme Meta costituiscono un “fastidio pubblico” che richiede contributi finanziari a programmi pubblici che affrontano i danni.
Questo caso è solo uno dei tanti. Oltre 40 procuratori generali statali hanno intentato cause simili, accusando Meta di alimentare una crisi di salute mentale giovanile progettando caratteristiche che creano dipendenza. È in corso un parallelo “processo Bellwether” in California, con una querelante di 19 anni che sostiene che Instagram e YouTube abbiano esacerbato la sua depressione e pensieri suicidi. Le accuse si concentrano su scelte progettuali deliberate che rispecchiano le tattiche dei casinò per massimizzare la dipendenza.
La sentenza invia un messaggio chiaro: le aziende non possono trarre profitto dallo sfruttamento delle vulnerabilità dei bambini senza conseguenze. Si tratta di un caso epocale che potrebbe rimodellare il futuro della regolamentazione dei social media e della responsabilità aziendale.
L’esito di queste cause legali determinerà se le piattaforme di social media saranno costrette a dare priorità alla sicurezza degli utenti rispetto ai profitti, affrontando finalmente il danno sistemico che hanno inflitto ai giovani.




















