Meskipun ada upaya Meta untuk meningkatkan keselamatan, sebuah penelitian baru-baru ini menunjukkan bahwa sebagian besar remaja berusia 13-15 tahun terus menemukan konten berbahaya dan kontak yang tidak diinginkan di Instagram. Temuan ini, yang dilakukan oleh kelompok advokasi anak, menimbulkan pertanyaan serius tentang efektivitas perlindungan yang ada saat ini.
Prevalensi Konten yang Tidak Pantas Mengganggu
Hampir 60% remaja berusia 13-15 melaporkan mengalami konten yang tidak aman atau pesan yang tidak diinginkan dalam enam bulan terakhir, bahkan setelah penerapan Meta pada Akun Remaja yang dirancang untuk membatasi paparan interaksi orang dewasa. Studi tersebut, yang didasarkan pada survei terhadap 800 remaja AS, menyoroti bahwa masalah ini tetap ada meskipun perusahaan mengklaim telah meningkatkan langkah-langkah keselamatan.
Laporan tersebut merinci beberapa pengalaman yang mengkhawatirkan:
- 40% remaja menerima pesan yang menyarankan keinginan untuk melakukan hubungan seksual atau romantis.
- 35% menemukan kontak yang tidak diinginkan dari pengguna lain.
- 27% terkena ujaran kebencian, konten rasis, atau materi diskriminatif.
Remaja Menjadi Tidak Peka terhadap Paparan Berbahaya
Mungkin yang paling memprihatinkan, penelitian ini menemukan bahwa banyak remaja menjadi mati rasa terhadap aliran materi yang tidak pantas. Mayoritas mengaku mengabaikan konten yang mengganggu karena mereka “sudah terbiasa”, yang menandakan normalisasi berbahaya dari pengalaman online yang berbahaya. Hal ini menunjukkan bahwa paparan jangka panjang tidak hanya gagal melindungi anak-anak tetapi juga dapat menyebabkan desensitisasi emosional.
Ketergantungan Meta pada AI dan Kekhawatiran yang Berkelanjutan
Meta semakin beralih ke moderasi konten berbasis AI, sehingga mengurangi ketergantungan pada peninjau manusia. Meskipun perusahaan berpendapat bahwa pendekatan ini meningkatkan efisiensi, muncul laporan yang menunjukkan bahwa AI itu sendiri mungkin memiliki kelemahan. Temuan terbaru mengungkapkan dokumen internal yang menunjukkan Meta mengizinkan AI untuk terlibat dalam percakapan “romantis atau sensual” dengan anak-anak, sehingga meningkatkan masalah etika dan keamanan.
Mengapa Ini Penting
Masih adanya konten tidak aman di Instagram bukan hanya masalah teknis; ini adalah masalah sistemik yang berimplikasi pada perkembangan anak dan kesejahteraan mental. Algoritme platform memprioritaskan keterlibatan, seringkali dengan mengorbankan keselamatan. Sampai Meta menerapkan perlindungan yang lebih ketat dan memprioritaskan perlindungan pengguna dibandingkan keuntungan, remaja muda akan tetap rentan terhadap eksploitasi dan paparan materi berbahaya.
Studi ini mencerminkan kritik sebelumnya dari mantan eksekutif Meta, yang menyatakan bahwa perusahaan tersebut telah berulang kali gagal mengatasi masalah keselamatan anak secara memadai. Ini adalah pengingat bahwa membuat “akun remaja” saja tidak cukup tanpa perubahan besar pada kebijakan moderasi konten dan transparansi algoritmik.

















