Instagram rimane pericoloso per i giovani adolescenti, rivela un nuovo studio

9

Nonostante gli sforzi di Meta per migliorare la sicurezza, uno studio recente indica che una parte significativa di adolescenti di età compresa tra 13 e 15 anni continua a incontrare contenuti dannosi e contatti indesiderati su Instagram. I risultati, commissionati da gruppi di tutela dei minori, sollevano seri interrogativi sull’efficacia delle attuali misure di salvaguardia.

Preoccupante prevalenza di contenuti inappropriati

Quasi il 60% degli adolescenti di età compresa tra 13 e 15 ha riferito di aver riscontrato contenuti non sicuri o messaggi indesiderati negli ultimi sei mesi, anche dopo l’implementazione da parte di Meta degli account per adolescenti progettati per limitare l’esposizione alle interazioni degli adulti. Lo studio, basato su un sondaggio condotto su 800 adolescenti statunitensi, evidenzia che questi problemi persistono nonostante le affermazioni dell’azienda riguardo al miglioramento delle misure di sicurezza.

Il rapporto descrive in dettaglio diverse esperienze allarmanti:

  • Il 40% dei giovani adolescenti ha ricevuto messaggi che suggerivano il desiderio di relazioni sessuali o romantiche.
  • Il 35% ha riscontrato contatti indesiderati da parte di altri utenti.
  • Il 27% è stato esposto a incitamento all’odio, contenuti razzisti o materiale discriminatorio.

Gli adolescenti stanno diventando desensibilizzati all’esposizione dannosa

Forse la cosa più preoccupante è che lo studio ha scoperto che molti adolescenti sono diventati insensibili al flusso costante di materiale inappropriato. La maggioranza ha ammesso di ignorare i contenuti inquietanti perché “si è abituata”, segnalando una pericolosa normalizzazione delle esperienze online dannose. Ciò suggerisce che l’esposizione a lungo termine potrebbe non solo non riuscire a proteggere i bambini, ma potrebbe anche portare a una desensibilizzazione emotiva.

La dipendenza di Meta dall’intelligenza artificiale e le preoccupazioni continue

Meta si è sempre più orientato verso la moderazione dei contenuti basata sull’intelligenza artificiale, riducendo la dipendenza dai revisori umani. Sebbene l’azienda sostenga che questo approccio migliori l’efficienza, sono emersi rapporti che indicano che l’intelligenza artificiale stessa potrebbe essere difettosa. Recenti scoperte hanno rivelato documenti interni che mostrano che Meta consente all’intelligenza artificiale di impegnarsi in conversazioni “romantiche o sensuali” con i bambini, sollevando preoccupazioni etiche e di sicurezza.

Perché è importante

La persistenza di contenuti non sicuri su Instagram non è solo una questione tecnica; è un problema sistemico con implicazioni per lo sviluppo del bambino e il benessere mentale. Gli algoritmi della piattaforma danno priorità al coinvolgimento, spesso a scapito della sicurezza. Fino a quando Meta non implementerà tutele più rigorose e non darà priorità alla protezione degli utenti rispetto al profitto, i giovani adolescenti rimarranno vulnerabili allo sfruttamento e all’esposizione a materiale dannoso.

Lo studio fa eco alle critiche precedenti degli ex dirigenti Meta, suggerendo che l’azienda ha ripetutamente fallito nell’affrontare adeguatamente le preoccupazioni sulla sicurezza dei bambini. È un chiaro promemoria del fatto che la semplice creazione di “account per adolescenti” non è sufficiente senza modifiche sostanziali alle politiche di moderazione dei contenuti e alla trasparenza algoritmica.

Попередня статтяBeats Powerbeats Fit: un piccolo aggiornamento, non l’aggiornamento sperato dai fan
Наступна статтяMacBook Neo di Apple: un passo coraggioso verso un futuro più giocoso