Несмотря на усилия Meta по повышению безопасности, недавнее исследование показывает, что значительная часть подростков в возрасте 13–15 лет продолжает сталкиваться с вредоносным контентом и нежелательными контактами в Instagram. Результаты, заказанные детскими правозащитными группами, вызывают серьёзные вопросы об эффективности текущих мер безопасности.
Тревожная Распространённость Неподходящего Контента
Почти 60% подростков в возрасте 13–15 лет сообщили о столкновении с небезопасным контентом или нежелательными сообщениями за последние шесть месяцев, даже после внедрения Meta «Подростковых аккаунтов», предназначенных для ограничения взаимодействия со взрослыми. Исследование, основанное на опросе 800 подростков из США, показывает, что эти проблемы сохраняются, несмотря на заявления компании о улучшении мер безопасности.
В отчёте подробно описывается несколько тревожных случаев:
- 40% молодых подростков получали сообщения, намекающие на желание сексуальных или романтических отношений.
- 35% столкнулись с нежелательными контактами от других пользователей.
- 27% подверглись воздействию разжигания ненависти, расистского контента или дискриминационных материалов.
Подростки Привыкают к Вредному Воздействию
Возможно, самое тревожное заключается в том, что исследование показало, что многие подростки привыкли к постоянному потоку неподобающего контента. Большинство признались, что игнорируют тревожный контент, потому что «привыкли к этому», что сигнализирует об опасной нормализации вредоносного онлайн-опыта. Это говорит о том, что долгосрочное воздействие может не только не защитить детей, но и привести к эмоциональной притуплённости.
Зависимость Meta от Искусственного Интеллекта и Продолжающиеся Проблемы
Meta всё чаще переходит на модерацию контента с помощью искусственного интеллекта, сокращая зависимость от человеческих модераторов. Хотя компания утверждает, что этот подход повышает эффективность, появились сообщения о том, что сам искусственный интеллект может быть несовершенным. Недавние выводы показали внутренние документы, в которых Meta разрешала искусственному интеллекту вступать в «романтические или чувственные» разговоры с детьми, что вызывает этические и безопасные опасения.
Почему Это Важно
Сохранение небезопасного контента в Instagram — это не просто техническая проблема; это системная проблема, имеющая последствия для развития ребёнка и психического благополучия. Алгоритмы платформы отдают приоритет вовлечённости, часто в ущерб безопасности. Пока Meta не внедрит более строгие меры безопасности и не поставит защиту пользователей выше прибыли, молодые подростки останутся уязвимыми для эксплуатации и воздействия вредоносных материалов.
Исследование перекликается с более ранней критикой бывших руководителей Meta, предполагающих, что компания неоднократно не смогла должным образом решить проблемы безопасности детей. Это резкое напоминание о том, что простого создания «подростковых аккаунтов» недостаточно без существенных изменений в политике модерации контента и прозрачности алгоритмов.