Незважаючи на зусилля Meta з підвищення безпеки, недавнє дослідження показує, що значна частина підлітків віком 13–15 років продовжує стикатися зі шкідливим контентом та небажаними контактами в Instagram. Результати, замовлені дитячими правозахисними групами, викликають серйозні питання щодо ефективності поточних.
Тривожна Поширеність Невідповідного Контенту
Майже 60% підлітків віком 13–15 років повідомили про зіткнення з небезпечним контентом або небажаними повідомленнями за останні шість місяців, навіть після впровадження Meta «Підліткових облікових записів», призначених для обмеження взаємодії з дорослими. Дослідження, що ґрунтується на опитуванні 800 підлітків зі США, показує, що ці проблеми зберігаються, незважаючи на заяви компанії про покращення заходів безпеки.
У звіті докладно описується кілька тривожних випадків:
- 40% молодих підлітків отримували повідомлення, які натякають бажання сексуальних чи романтичних відносин.
- 35% зіштовхнулися із небажаними контактами від інших користувачів.
- 27% зазнали впливу розпалювання ненависті, расистського контенту чи дискримінаційних матеріалів.
Підлітки Звикають до Шкідливого Впливу
Можливо, найтривожніше полягає в тому, що дослідження показало, що багато підлітків звикли до постійного потоку неналежного контенту. Більшість зізналися, що ігнорують тривожний контент, тому що «звикли до цього», що сигналізує про небезпечну нормалізацію шкідливого онлайн-досвіду. Це говорить про те, що довгостроковий вплив може не тільки не захистити дітей, а й призвести до емоційної притупленості.
Залежність Meta від Штучного Інтелекту та Продовження
Meta все частіше переходить на модерацію контенту за допомогою штучного інтелекту, що скорочує залежність від людських модераторів. Хоча компанія стверджує, що цей підхід підвищує ефективність, з’явилися повідомлення, що сам штучний інтелект може бути недосконалим. Нещодавні висновки показали внутрішні документи, в яких Meta дозволяла штучному інтелекту вступати до «романтичних чи чуттєвих» розмов з дітьми, що викликає етичні та безпечні побоювання.
Чому це важливо
Збереження небезпечного контенту в Instagram це не просто технічна проблема; це системна проблема, що має наслідки для розвитку дитини та психічного благополуччя. Алгоритми платформи віддають пріоритет залученості, часто на шкоду безпеці. Поки Meta не впровадить більш суворі заходи безпеки та не поставить захист користувачів вище прибутку, молоді підлітки залишаться вразливими до експлуатації та впливу шкідливих матеріалів.
Дослідження перегукується з більш ранньою критикою колишніх керівників Meta, які припускають, що компанія неодноразово не змогла належним чином вирішити проблеми безпеки дітей. Це різке нагадування про те, що простого створення «підліткових облікових записів» недостатньо без істотних змін у політиці модерації контенту та прозорості алгоритмів.
