Nowe badania pokazują, że #Instagram pozostaje niebezpieczny dla nastolatków
Pomimo wysiłków Meta na rzecz poprawy bezpieczeństwa, ostatnie badania pokazują, że znaczny odsetek nastolatków w wieku 13–15 lat w dalszym ciągu spotyka się ze szkodliwymi treściami i niechcianymi kontaktami na Instagramie. Ustalenia przeprowadzone na zlecenie grup działających na rzecz dzieci rodzą poważne pytania dotyczące skuteczności obecnych środków bezpieczeństwa.
Alarmujące występowanie nieodpowiednich treści
Prawie 60% nastolatków w wieku 13–15 zgłosiło kontakt z niebezpiecznymi treściami lub niechcianymi wiadomościami w ciągu ostatnich sześciu miesięcy, nawet po wprowadzeniu przez Meta „Kont dla nastolatków”, których celem jest ograniczenie interakcji z dorosłymi. Badanie, oparte na ankiecie przeprowadzonej wśród 800 amerykańskich nastolatków, pokazuje, że problemy te utrzymują się pomimo zapewnień firmy o poprawie środków bezpieczeństwa.
W raporcie szczegółowo opisano kilka alarmujących przypadków:
- 40% młodych nastolatków otrzymało wiadomości sugerujące chęć nawiązania relacji seksualnych lub romantycznych.
- 35% napotkało niechciane kontakty od innych użytkowników.
- 27% było narażonych na mowę nienawiści, treści rasistowskie lub dyskryminujące.
Nastolatki przyzwyczajają się do szkodliwego narażenia
Być może najbardziej niepokojące jest to, że badanie wykazało, że wiele nastolatków przyzwyczaiło się do ciągłego strumienia nieodpowiednich treści. Większość przyznała, że ignoruje niepokojące treści, ponieważ jest do tego „przyzwyczajona”, co sygnalizuje niebezpieczną normalizację szkodliwych doświadczeń w Internecie. Sugeruje to, że długotrwałe narażenie może nie tylko nie chronić dzieci, ale może również prowadzić do otępienia emocjonalnego.
Zależność Meta od sztucznej inteligencji i ciągłe problemy
Meta coraz bardziej zmierza w kierunku moderowania treści przy użyciu sztucznej inteligencji, zmniejszając swoją zależność od ludzkich moderatorów. Choć firma twierdzi, że takie podejście poprawia wydajność, pojawiły się doniesienia, że sama sztuczna inteligencja może być wadliwa. Niedawne ustalenia ujawniły wewnętrzne dokumenty, w których Meta umożliwiła sztucznej inteligencji prowadzenie „romantycznych lub zmysłowych” rozmów z dziećmi, budząc obawy dotyczące etyki i bezpieczeństwa.
Dlaczego to jest ważne
Zapisywanie niebezpiecznych treści na Instagramie to nie tylko problem techniczny; jest to problem systemowy mający konsekwencje dla rozwoju dziecka i jego dobrostanu psychicznego. Algorytmy platformy traktują priorytetowo zaangażowanie, często kosztem bezpieczeństwa. Dopóki Meta nie wdroży silniejszych środków bezpieczeństwa i nie przedłoży ochrony użytkownika nad zysk, młode nastolatki będą narażone na wyzysk i narażenie na szkodliwe materiały.
W badaniu powtórzono wcześniejszą krytykę ze strony byłych dyrektorów Meta, sugerującą, że firmie wielokrotnie nie udało się odpowiednio rozwiązać problemów związanych z bezpieczeństwem dzieci. To wyraźne przypomnienie, że samo utworzenie „kont dla nastolatków” nie wystarczy bez znaczących zmian w zasadach moderowania treści i przejrzystości algorytmicznej.

















