Anthropic and the Pentagon: Deadlock v boji o kontrolu nad AI

8

Americké ministerstvo obrany (DoD) a Anthropic, přední vývojář umělé inteligence, jsou zapleteny do vysoce sázkové konfrontace o tom, jak by umělá inteligence mohla být využita pro vojenské účely. Skutečnou otázkou není zda bude nasazena AI, ale kdo určuje pravidla: společnosti, které technologii vytvářejí, nebo vláda, která ji používá.

Konflikt: Omezení v používání AI

Společnost Anthropic, vedená generálním ředitelem Dariem Amodeiem, odmítá, aby její modely AI byly používány pro dva klíčové účely: hromadné sledování občanů USA a plně autonomní zbraňové systémy, které činí smrtelná rozhodnutí bez lidského zásahu. Toto stanovisko přímo zpochybňuje postoj ministerstva obrany, jak jej vyjádřil ministr zahraničí Piet Hegseth, že by mělo být povoleno veškeré „legitimní“ použití technologie.

Ministerstvo obrany tvrdí, že by nemělo být omezováno dodavatelskými politikami, zvláště když je v sázce národní bezpečnost. V tvrdém ultimátu Pentagon pohrozil klasifikací Anthropic jako „riziko dodavatelského řetězce“, čímž společnost fakticky odřízne od vládních zakázek, pokud do pátku nesplní.

Proč na tom záleží: Budoucnost automatizovaného válčení

Tento spor není jen záležitostí jedné smlouvy. Odráží zásadní napětí v rychlém vývoji AI. Americká armáda již používá vysoce automatizované systémy, z nichž některé jsou schopny použít smrtící sílu. Současná pravidla umožňují použití umělé inteligence k výběru a zasahování cílů bez přímého lidského zásahu, s výhradou souhlasu vyšších úředníků. Antropická se obává, že pokud její modely použije armáda bez dostatečných záruk, následky by mohly být katastrofální.

Společnost se obává zejména následujícího:

  • Nespolehlivá smrtící rozhodnutí: Přenechání kontroly nad zbraněmi méně schopné AI může vést k chybné identifikaci cílů, nechtěné eskalaci nebo nevratným chybám.
  • Vylepšený dohled: Umělá inteligence by mohla výrazně zvýšit rozsah a efektivitu domácího dohledu, což vyvolává obavy o soukromí a občanské svobody.
  • Nedostatek transparentnosti: Vojenské technologie jsou často klasifikovány, což znamená, že celý rozsah vývoje autonomních zbraní může zůstat skrytý, dokud nebudou uvedeny do provozu.

Pozice Pentagonu: Pragmatismus vs. principy

Ministerstvo obrany trvá na tom, že jeho jediným účelem je používat AI pro legitimní účely a že omezení Anthropic jsou zbytečná. Zástupci tvrdí, že nemají v úmyslu provádět hromadné domácí sledování nebo rozmisťovat nekontrolované autonomní zbraně. Rétorika tajemníka Hegsetha však nabrala kulturní obrat, když kritizoval „probuzenou AI“ a zdůraznil potřebu systémů „připravených na válku“ spíše než „chatbotů pro profesory Ivy League“.

Pentagon má pravomoc prosazovat dodržování zákona o výrobě obrany (DPA), který vládě umožňuje přinutit společnosti, aby naplnily jeho potřeby. Prohlášením Antropie za riziko dodavatelského řetězce by společnost v podstatě byla na černou listinu, což by jí zabránilo v budoucí vládní práci.

Esence: Kritický bod volby

Bezvýchodná situace staví obě strany před obtížnou volbu. Pokud Anthropic odmítne přistoupit, riskuje ztrátu hlavního zdroje příjmů a potenciálně poškození své dlouhodobé životaschopnosti. Pokud se ML pohne kupředu bez Anthropic, mohlo by dojít ke zpoždění o šest až 12 měsíců, než ostatní vývojáři AI dohoní, což je významná zranitelnost v rychle se měnícím geopolitickém prostředí. Výsledek určí nejen budoucnost AI ve válce, ale také rovnováhu sil mezi technologickými společnostmi a vládou USA.

Попередня статтяBBC pod kritikou za nefiltrované vysílání rasistického zneužívání na BAFTA
Наступна статтяNYT Strands #639: Rady, odpovědi a vysvětlení tématu