Міністерство оборони США (МО) та Anthropic, провідний розробник ІІ, виявилися втягнутими у високоставкову конфронтацію через те, як штучний інтелект може бути використаний у військових цілях. Основне питання полягає не в тому, чи буде ІІ розгорнутий, а в тому, хто встановлює правила: компанії, що створюють цю технологію, або уряд, який її використовує.
Конфлікт: Обмеження у використанні ІІ
Anthropic, очолювана генеральним директором Даріо Амодеї, відмовляється дозволяти використання своїх моделей ІІ для двох ключових цілей: масового стеження за громадянами США та повністю автономних систем озброєнь, які приймають смертельні рішення без участі людини. Ця позиція безпосередньо кидає виклик позиції МО, вираженої держсекретарем Пітом Хегсетхом, згідно з якою має бути дозволено будь-яке «законне» використання технології.
МО стверджує, що не повинно бути обмежено політикою постачальника, особливо коли йдеться про національну безпеку. У жорсткому ультиматумі Пентагон пригрозив віднести Anthropic до “ризиків ланцюжка поставок”, фактично відрізавши компанію від державних контрактів, якщо вона не підкориться до п’ятниці.
Чому це важливо: Майбутнє автоматизованої війни
Ця суперечка — не просто питання одного контракту. Він відбиває фундаментальне напруження у стрімкій еволюції ІІ. Збройні сили США використовують високоавтоматизовані системи, деякі з яких здатні до застосування летальної сили. Діючі правила допускають використання ІІ для вибору та поразки цілей без прямої участі людини, за умови схвалення старшими посадовими особами. Anthropic побоюється, що й її моделі використовуватимуться військовими без достатніх гарантій, наслідки може бути катастрофічними.
Зокрема, компанія стурбована наступним:
- Ненадійні смертельні рішення: Передача контролю над зброєю менш здатному ІІ може призвести до неправильної ідентифікації цілей, небажаної ескалації або незворотних помилок.
- Посилене стеження: ІІ може значно підвищити масштаб та ефективність внутрішнього стеження, викликаючи побоювання з приводу конфіденційності та громадянських свобод.
- Відсутність прозорості: Військові технології часто засекречені, що означає, що повний масштаб розробки автономної зброї може залишатися прихованим до моменту його введення в експлуатацію.
Позиція Пентагону: Прагматизм проти принципів
МО наполягає на тому, що його єдина мета – використовувати ІІ в законних цілях, і що обмеження Anthropic непотрібні. Представники стверджують, що вони не мають наміру проводити масове внутрішнє стеження або розгортати безконтрольну автономну зброю. Однак риторика держсекретаря Хегсета перейшла в культурну площину, де він критикував «ІІ, що прокинувся» і підкреслив необхідність «готових до війни» систем, а не «чат-ботів для професорської аудиторії Ліги плюща».
Пентагон має право примусити дотримання через Закон про виробничий оборонний акт (DPA), який дозволяє уряду змушувати компанії задовольняти його потреби. Оголошення Anthropic ризиком ланцюжка поставок фактично занесе компанію до чорного списку, позбавивши її майбутньої роботи на державу.
Суть: Критична точка вибору
Безвихідь ставить перед обома сторонами складний вибір. Якщо Anthropic відмовиться поступитися, вона ризикує втратити велике джерело прибутку і потенційно підірвати свою довгострокову життєздатність. Якщо МО просунеться далі без Anthropic, воно може зіткнутися із затримкою на шість-дванадцять місяців, поки інші розробники ІІ не наздоженуть, що стане значною вразливістю в геополітичному ландшафті, що швидко змінюється. Вихід визначить не лише майбутнє ІІ у війні, а й баланс сил між технологічними компаніями та урядом США.
