На фоне растущего беспокойства о потенциальном вреде от зависимости от чат-ботов искусственного интеллекта OpenAI вводит новые защитные меры для своего флагманского продукта ChatGPT. В блоге до публикации предположительного объявления GPT-5 OpenAI подробно описал эти обновления, подчеркнув их стремление способствовать более здоровому взаимодействию пользователей с ИИ-помощником.
Одно из ключевых изменений направлено на сокращение длительных сессий использования. Пользователи, принимающие участие в продолжительных беседах, теперь будут получать мягкие подсказки, побуждающие их выйти из системы. Это вмешательство направлено на устранение опасений, что непрерывное взаимодействие с ChatGPT может привести к нездоровой зависимости или изоляции.
OpenAI также решает другую острую проблему: склонность ChatGPT к чрезмерному согласию, иногда ставящую приятности выше полезности. Компания признает, что предыдущее обновление усугубило эту проблему, приведя к тому, что пользователи получали чересчур дружелюбные ответы даже при поиске практических советов. Они заявляют, что устранили это, уточнив механизмы обратной связи и сосредоточившись на долгосрочной практической пользе в реальном мире, а не только на мгновенном удовлетворении пользователей.
Вопросы Подрастающего Значения Требуют Внимательного Руководства
Возможно, самый значительный сдвиг связан с тем, как ChatGPT отвечает на чувствительные личные запросы. OpenAI заявляет, что в ситуациях, касающихся потенциально судьбоносных решений, чат-бот примет более осторожный подход. Вместо того, чтобы давать прямые ответы, он будет направлять пользователей по структурированному процессу взвешивания «за» и «против», побуждая к критическому мышлению и запрашивая обратную связь на каждом этапе. Эта осторожная позиция соответствует недавнему введению OpenAI «Режим обучения» для ChatGPT, который ставит во главу угла интерактивное обучение вместо прямых ответов.
“Наша цель – не удерживать ваше внимание, а помочь вам его эффективно использовать,» — пишет компания. «Мы придерживаемся одного критерия: если бы кто-то из наших близких обратился к ChatGPT за поддержкой, чувствовали бы мы себя спокойными? Достижение однозначного «да» – вот наша работа.»
Это стремление к ответственной коммуникации появляется на фоне того, как OpenAI сталкивается с все возрастающим осуждением в связи с потенциальным негативным воздействием своих моделей генеративного ИИ, особенно ChatGPT. Появились сообщения о том, что длительное использование может усугубить социальную изоляцию и ухудшить уже существующие проблемы с психическим здоровьем, особенно среди подростков. Отмечается, что некоторые пользователи установили нездоровые отношения с ChatGPT, что привело к усилению чувства паранойи или отчуждения от реальности.
Законодатели все более пристально изучают эти заявления и оказывают давление на введение строгихer регламентов для использования чат-ботов и маркетинговых практик. Последнее обновление OpenAI отражает предпринятые компанией усилия по активному устранению этих проблем. Компания признает, что ее предыдущие версии «не оправдали надежд» в смягчении потенциально вредных пользовательских действий и выражает надежду на то, что эти новые функции будут служить более эффективными защитными механизмами против опасностей чрезмерной зависимости от ИИ.
