OpenAI представила новый план обеспечения безопасности для борьбы с эксплуатацией детей с помощью ИИ

7

OpenAI представила новую стратегическую концепцию — Child Safety Blueprint (План обеспечения безопасности детей), направленную на противодействие растущей угрозе сексуальной эксплуатации несовершеннолетних с использованием искусственного интеллекта. Инициатива призвана ускорить процессы обнаружения, сообщения и расследования случаев насилия, созданных с помощью ИИ, обеспечивая более надежную защиту детей в условиях стремительной цифровизации.

Растущая угроза эксплуатации с использованием ИИ

Запуск этого плана происходит в критический момент. По мере расширения возможностей ИИ растет и арсенал инструментов, доступных злоумышленникам. Internet Watch Foundation (IWF) зафиксировала тревожную тенденцию: только за первую половину 2025 года было обнаружено более 8 000 сообщений о материалах с сексуальным насилием над детьми, созданных с помощью ИИ, что на 14% больше по сравнению с предыдущим годом.

Этот рост эксплуатации обычно проявляется в двух опасных формах:
Финансовый сексторшн (шантаж): преступники используют ИИ для создания неконсенсуальных откровенных изображений детей с целью вымогательства денег у семей.
Цифровый груминг: использование высокоубедительных сообщений, созданных ИИ, для манипуляции несовершеннолетними и их изоляции.

Многосторонняя стратегия защиты

Разработанный в сотрудничестве с Национальным центром по поиску пропавших и эксплуатируемых детей (NCMEC) и Альянсом генеральных прокуроров, данный план опирается на три основных столпа, призванных перейти от ответных мер к проактивным мерам безопасности:

  1. Законодательные обновления: продвижение законов, которые в явном виде включают материалы с насилием, созданные ИИ, в существующие юридические определения.
  2. Оптимизация отчетности: совершенствование механизмов передачи критически важных данных правоохранительным органам, чтобы следователи получали оперативную информацию без задержек.
  3. Системные защитные меры: внедрение превентивных технических барьеров непосредственно в модели ИИ для блокировки генерации вредоносного контента на самом раннем этапе.

Растущее давление и юридическая ответственность

Шаг OpenAI в сторону усиления безопасности не происходит в вакууме; он стал ответом на пристальное внимание со стороны политиков и судебные иски, касающиеся психологического воздействия ИИ.

Компания находится под серьезным давлением после нескольких резонансных инцидентов, когда взаимодействие с чат-ботами на базе ИИ было связано с кризисами психического здоровья. В частности, в судебных исках, поданных в Калифорнии, утверждается, что выпуск GPT-4o состоялся до того, как были внедрены достаточные защитные механизмы. В исках заявляется, что «психологически манипулятивная» природа модели способствовала возникновению тяжелых бредовых состояний и, к сожалению, приведла к нескольким случаям самоубийств.

Привлекая государственных чиновников — включая отзывы генеральных прокуроров Северной Каролины и Юты — OpenAI пытается преодолеть разрыв между стремительными технологическими инновациями и острой необходимостью контроля за общественной безопасностью.

Данный план представляет собой важнейшую попытку синхронизировать развитие ИИ с правовыми и этическими нормами, необходимыми для защиты наиболее уязвимых пользователей от возникающих цифровых угроз.

Заключение
План OpenAI по безопасности детей знаменует собой значительный сдвиг в сторону интеграции правоохранительных органов и законодательной деятельности в процесс разработки ИИ. Хотя эта инициатива направлена на борьбу с резким ростом эксплуатации с помощью ИИ, её успех будет зависеть от того, насколько эффективно технические средства защиты смогут поспевать за развивающейся тактикой преступников.

Попередня статтяЭкономическое видение OpenAI против политической реальности: растущий кризис доверия