Departament Obrony Stanów Zjednoczonych (DoD) i Anthropic, wiodący twórca sztucznej inteligencji, są uwikłane w konfrontację o wysoką stawkę w sprawie możliwości wykorzystania sztucznej inteligencji do celów wojskowych. Prawdziwe pytanie nie brzmi: czy sztuczna inteligencja zostanie wdrożona, ale kto ustala zasady: firmy tworzące technologię czy rząd, który z niej korzysta.
Konflikt: ograniczenia w użyciu sztucznej inteligencji
Anthropic, kierowana przez dyrektora generalnego Dario Amodei, nie pozwala na wykorzystywanie swoich modeli sztucznej inteligencji do dwóch kluczowych celów: masowej inwigilacji obywateli USA oraz w pełni autonomicznych systemów uzbrojenia, które podejmują śmiercionośne decyzje bez interwencji człowieka. Stanowisko to bezpośrednio podważa stanowisko Ministerstwa Obrony wyrażone przez Sekretarza Stanu Pieta Hegsetha, że powinno być dozwolone wszelkie „legalne” wykorzystanie tej technologii.
Departament Obrony argumentuje, że nie powinien być ograniczany polityką dostawców, zwłaszcza gdy w grę wchodzi bezpieczeństwo narodowe. Stawiając ostre ultimatum, Pentagon zagroził, że zaklasyfikuje Anthropic jako „ryzyko łańcucha dostaw”, skutecznie odcinając firmę od kontraktów rządowych, jeśli nie zastosuje się ona do piątku.
Dlaczego to ma znaczenie: przyszłość zautomatyzowanej wojny
Spór ten nie dotyczy wyłącznie jednej umowy. Odzwierciedla to zasadnicze napięcie w szybkiej ewolucji sztucznej inteligencji. Wojsko amerykańskie korzysta już z wysoce zautomatyzowanych systemów, a niektóre z nich są w stanie użyć śmiercionośnej siły. Obecne przepisy pozwalają na wykorzystanie sztucznej inteligencji do wybierania celów i atakowania ich bez bezpośredniej interwencji człowieka, pod warunkiem uzyskania zgody urzędników wyższego szczebla. Anthropic obawia się, że jeśli jego modele zostaną wykorzystane przez wojsko bez wystarczających zabezpieczeń, konsekwencje mogą być katastrofalne.
W szczególności obawy firmy dotyczą następujących kwestii:
- Niewiarygodne, śmiercionośne decyzje: Przekazanie kontroli nad bronią mniej zdolnej sztucznej inteligencji może skutkować błędną identyfikacją celów, niechcianą eskalacją lub nieodwracalnymi błędami.
- Wzmocniony nadzór: sztuczna inteligencja może znacznie zwiększyć zakres i skuteczność nadzoru krajowego, budząc obawy dotyczące prywatności i swobód obywatelskich.
- Brak przejrzystości: Technologie wojskowe są często utajnione, co oznacza, że pełny zakres rozwoju broni autonomicznej może pozostać ukryty do czasu ich wprowadzenia do użytku.
Stanowisko Pentagonu: pragmatyzm a zasady
Departament Obrony upiera się, że jego jedynym celem jest wykorzystywanie sztucznej inteligencji do celów zgodnych z prawem oraz że ograniczenia nałożone przez Anthropic są niepotrzebne. Przedstawiciele twierdzą, że nie mają zamiaru prowadzić masowej inwigilacji krajowej ani rozmieszczać niekontrolowanej autonomicznej broni. Jednak retoryka sekretarza Hegsetha przyjęła zwrot kulturowy, gdzie skrytykował „obudzenie sztucznej inteligencji” i podkreślił potrzebę posiadania systemów „gotowych do wojny”, a nie „chatbotów dla profesorów Ivy League”.
Pentagon ma władzę egzekwowania przestrzegania przepisów poprzez ustawę o produkcji obronnej (DPA), która pozwala rządowi zmuszać firmy do zaspokajania jego potrzeb. Uznanie Anthropic za ryzyko w łańcuchu dostaw skutecznie spowodowałoby umieszczenie firmy na czarnej liście, uniemożliwiając jej udział w przyszłych pracach rządowych.
Esencja: Krytyczny punkt wyboru
Impas stawia obie strony przed trudnymi wyborami. Jeśli Anthropic odmówi ustąpienia, ryzykuje utratę głównego źródła dochodów i potencjalnie zaszkodzi swojej długoterminowej rentowności. Jeśli ML będzie działać bez Anthropic, może wystąpić opóźnienie od sześciu do 12 miesięcy, dopóki inni twórcy sztucznej inteligencji nie nadrobią zaległości, co stanowi poważną lukę w szybko zmieniającym się krajobrazie geopolitycznym. Wynik zadecyduje nie tylko o przyszłości sztucznej inteligencji w działaniach wojennych, ale także o równowadze sił między firmami technologicznymi a rządem USA.




















