Недавно OpenAI опубликовала подробный 13-страничный программный документ, в котором описывается, как искусственный интеллект может изменить американский рынок труда. В документе предлагается радикальный экономический сдвиг, призванный смягчить последствия вытеснения людей из рабочей среды; авторы предполагают, что «изобилие», создаваемое ИИ, должно стать источником финансирования надежной системы социальной защиты.
Предложение: финансирование экономики эпохи после ИИ
Дорожная карта компании сосредоточена на перераспределении богатства, создаваемого автоматизацией, для защиты тех, кого она затронет. Ключевые направления их предложения включают:
- Повышение налога на прирост капитала: воздействие на корпорации, которые заменяют сотрудников системами ИИ.
- Государственный фонд благосостояния: использование прибыли от ИИ для поддержания национальной экономической стабильности.
- «Дивиденд эффективности»: финансирование перехода на четырехдневную рабочую неделю.
- Программы перехода, ориентированные на человека: государственные инициативы по переобучению работников для профессий, требующих уникальных человеческих навыков.
Хотя эти идеи привносят существенные новые концепции в политический дискурс об управлении ИИ, они появляются в период пристального внимания к корпоративной этике OpenAI.
Кризис доверия: слова против действий
Публикация этого документа совпала с глубоко критическим отчетом The New Yorker, в котором подробно описывается история предполагаемых обманов со стороны генерального директора Сэма Альтмана. В отчете прослеживается повторяющаяся модель: OpenAI публично выступает за идеалистические ценности и правила безопасности, в то время как в частном порядке работает над их подрывом ради политической или финансовой выгоды.
Это несоответствие заставило политиков и отраслевых экспертов задаться вопросом: являются ли программные предложения OpenAI искренними попытками регулирования или же это просто изощренный пиар.
Модель политического маневрирования
Критики указывают на несколько случаев, когда частные действия OpenAI, по всей видимости, противоречили её публичной позиции:
1. Подавление законодательства: в то время как в 2023 году Альтман публично выступал за федеральный надзор за ИИ, отчеты указывают на то, что компания вела закулисную работу, чтобы заблокировать конкретные законопроекты по безопасности в Калифорнии.
2. Агрессивная юридическая тактика: сообщается, что компания использовала повестки в суд для запугивания сторонников законодательства об ИИ на уровне штатов.
3. Смена сторон: после тесного сотрудничества с администрацией Байдена для установления стандартов безопасности, Альтман успешно лоббировал интересы в администрации Трампа, чтобы демонтировать многие из тех самых инициатив, которые он когда-то поддерживал.
Скептицизм экспертов: выживет ли видение под натиском лоббизма?
Отраслевые наблюдатели разделились во мнениях относительно того, смогут ли технические эксперты, пишущие эти стратегии, сохранить свое влияние перед лицом политической машины компании.
Мало Бургон, генеральный директор Исследовательского института машинного интеллекта (MIRI), отмечает, что, хотя документ может быть продуктом благих намерений исследователей, существует риск «разочарования». История показывает, что многие сотрудники OpenAI покидали компанию, обнаружив, что действия организации не соответствуют её заявленным ценностям.
Аналогичным образом Нейтан Калвин из некоммерческой организации по вопросам политики ИИ Encode выразил скептицизм относительно участия OpenAI в демократических процессах. Признавая ценность технических исследований, лежащих в основе предложения, Калвин отметил, что настоящей проверкой станет то, будет ли OpenAI придерживаться этих принципов, когда они перейдут из разряда «общих политических принципов» в мир жесткого и высокобюджетного лоббизма.
Итог: OpenAI представила дальновидную экономическую модель для решения проблемы вытеснения рабочих мест искусственным интеллектом, однако растущая череда политических противоречий заставила Вашингтон усомниться в том, действительно ли компания выполнит свои обещания.





















