Anthropic и Пентагон: Тупик в борьбе за контроль над ИИ

3

Министерство обороны США (МО) и Anthropic, ведущий разработчик ИИ, оказались втянуты в высокоставочную конфронтацию из-за того, как искусственный интеллект может быть использован в военных целях. Основной вопрос заключается не в том, будет ли ИИ развернут, а в том, кто устанавливает правила: компании, создающие эту технологию, или правительство, которое её использует.

Конфликт: Ограничения в использовании ИИ

Anthropic, возглавляемая генеральным директором Дарио Амодеи, отказывается разрешать использование своих моделей ИИ для двух ключевых целей: массовой слежки за гражданами США и полностью автономных систем вооружений, принимающих смертельные решения без участия человека. Эта позиция напрямую бросает вызов позиции МО, выраженной госсекретарём Питом Хегсетхом, согласно которой должно быть разрешено любое «законное» использование технологии.

МО утверждает, что не должно быть ограничено политикой поставщика, особенно когда речь идет о национальной безопасности. В жёстком ультиматуме Пентагон пригрозил отнести Anthropic к «рискам цепочки поставок», фактически отрезав компанию от государственных контрактов, если она не подчинится до пятницы.

Почему это важно: Будущее автоматизированной войны

Этот спор — не просто вопрос одного контракта. Он отражает фундаментальное напряжение в стремительной эволюции ИИ. Вооруженные силы США уже используют высокоавтоматизированные системы, некоторые из которых способны к применению летальной силы. Действующие правила допускают использование ИИ для выбора и поражения целей без прямого участия человека, при условии одобрения старшими должностными лицами. Anthropic опасается, что если её модели будут использоваться военными без достаточных гарантий, последствия могут быть катастрофическими.

В частности, компания обеспокоена следующим:

  • Ненадёжные смертельные решения: Передача контроля над оружием менее способному ИИ может привести к неправильной идентификации целей, нежелательной эскалации или необратимым ошибкам.
  • Усиленная слежка: ИИ может значительно повысить масштаб и эффективность внутренней слежки, вызывая опасения по поводу конфиденциальности и гражданских свобод.
  • Отсутствие прозрачности: Военные технологии часто засекречены, что означает, что полный масштаб разработки автономного оружия может оставаться скрытым до момента его ввода в эксплуатацию.

Позиция Пентагона: Прагматизм против принципов

МО настаивает на том, что его единственная цель — использовать ИИ в законных целях, и что ограничения Anthropic ненужны. Представители утверждают, что у них нет намерения проводить массовую внутреннюю слежку или развертывать бесконтрольное автономное оружие. Однако риторика госсекретаря Хегсета перешла в культурную плоскость, где он критиковал «проснувшийся ИИ» и подчеркнул необходимость «готовых к войне» систем, а не «чат-ботов для профессорской аудитории Лиги плюща».

Пентагон имеет право принудить к соблюдению через Закон о производственном оборонном акте (DPA), который позволяет правительству заставлять компании удовлетворять его потребности. Объявление Anthropic риском цепочки поставок фактически занесёт компанию в чёрный список, лишив её будущей работы на государство.

Суть: Критическая точка выбора

Тупик ставит перед обеими сторонами сложный выбор. Если Anthropic откажется уступить, она рискует потерять крупный источник дохода и потенциально подорвать свою долгосрочную жизнеспособность. Если МО продвинется дальше без Anthropic, оно может столкнуться с задержкой на шесть-двенадцать месяцев, пока другие разработчики ИИ не догонят, что станет значимой уязвимостью в быстро меняющемся геополитическом ландшафте. Исход определит не только будущее ИИ в войне, но и баланс сил между технологическими компаниями и правительством США.

Попередня статтяBBC Подвергается Критике за Неотфильтрованную Трансляцию Расистского Оскорбления на BAFTAs
Наступна статтяNYT Strands #639: Подсказки, Ответы и Объяснение Темы