Ustawodawcy w Senacie USA przygotowują projekt ustawy, która ograniczyłaby wykorzystanie sztucznej inteligencji przez wojsko w następstwie głośnego sporu między firmą Anthropic, wiodącym twórcą sztucznej inteligencji, a Departamentem Obrony. Posunięcie to ma na celu cementowanie granic etycznych dla broni autonomicznej i masowej inwigilacji, zapewniając ludzką kontrolę nad decyzjami dotyczącymi życia i śmierci. Nastąpiło to po tym, jak administracja Trumpa umieściła firmę Anthropic na czarnej liście za odmowę zezwolenia na nieograniczone wykorzystanie jej modeli sztucznej inteligencji w celach wojskowych, co jest decyzją, którą Anthropic kwestionuje obecnie w sądzie.
Istota konfliktu
Anthropic publicznie sprzeciwiała się porozumieniu z Pentagonem, które umożliwiłoby wykorzystanie jego sztucznej inteligencji do w pełni autonomicznych systemów uzbrojenia i powszechnego nadzoru krajowego. Stanowisko to stoi w jaskrawym kontraście z OpenAI, konkurentem, który zgodził się na te warunki. Późniejsze umieszczenie przez administrację firmy Anthropic na czarnej liście spowodowało procesy sądowe, a obecnie interwencję legislacyjną.
Kluczową kwestią jest kontrola: kto decyduje, kiedy i jak wykorzystać sztuczną inteligencję w krytycznych zastosowaniach, zwłaszcza tych związanych ze śmiercionośną siłą lub masowym gromadzeniem danych? Bez jasnych zasad rozwój sztucznej inteligencji mógłby przyspieszyć niekontrolowane wykorzystanie jej w celach wojskowych, budząc poważne obawy dotyczące swobód obywatelskich.
Dwupartyjne wysiłki na rzecz ustalenia granic
Senator Adam Schiff (D-CA) przewodzi wysiłkom na rzecz opracowania przepisów prawnych, które wprowadzałyby ograniczenia dotyczące wykorzystania sztucznej inteligencji do celów wojskowych. Podkreślił potrzebę zaangażowania człowieka w jakąkolwiek decyzję dotyczącą życia i śmierci, mówiąc: „Nie chcemy delegować algorytmu tego rodzaju odpowiedzialności za życie i śmierć”.
Senator Elissa Slotkin (D-MI) wprowadziła już ustawę AI Guardrails Act, która jeszcze bardziej ograniczy Departamentowi Obrony możliwość wykorzystywania sztucznej inteligencji do masowej inwigilacji Amerykanów lub autonomicznej śmiercionośnej broni bez nadzoru człowieka. Prawo dopuszcza wyjątki jedynie w „nadzwyczajnych okolicznościach”, wymagających powiadomienia Kongresu.
Rola sztucznej inteligencji na wojnie: krucha równowaga
Podkreślając znaczenie nadzoru człowieka, prawodawcy dostrzegają potencjalne korzyści militarne wynikające ze sztucznej inteligencji. Sztuczna inteligencja może przetwarzać informacje szybciej niż człowiek, zapewniając przewagę taktyczną na polu bitwy. Jednakże ryzyko błędów – na przykład przy rozróżnianiu ludności cywilnej od kombatantów – pozostaje znaczne.
Debata koncentruje się na tym, jak wykorzystać szybkość i skuteczność sztucznej inteligencji bez utraty kontroli nad decyzjami dotyczącymi życia i śmierci. Proponowane przepisy mają na celu osiągnięcie tej równowagi.
Wyzwania polityczne i kolejne kroki
Przyjęcie takich przepisów będzie trudne, biorąc pod uwagę obecny klimat polityczny. Biorąc pod uwagę niewielką większość Demokratów, wsparcie ponadpartyjne będzie miało kluczowe znaczenie. Moment jest również niekorzystny, ponieważ zbliżają się wybory śródokresowe i słabnie dynamika legislacyjna. Ustawodawcy rozważają dołączenie projektu ustawy do ustawy o autoryzacji obrony narodowej (NDAA), aby zwiększyć jej szanse na przyjęcie.
Pomimo przeszkód politycznych Schiff uważa, że ograniczenia sztucznej inteligencji cieszą się szerokim poparciem społecznym. Przyznaje się do możliwego oporu ze strony niektórych kolegów, którzy mogą postrzegać projekt ustawy jako krytykę administracji, pozostaje jednak optymistą co do zapewnienia ponadpartyjnego wsparcia.
„Z pewnością istnieje ponadpartyjne poparcie społeczne dla takich ograniczeń” – stwierdził Schiff.
Konflikt z Anthropic ujawnił słabe punkty w obecnym zarządzaniu sztuczną inteligencją i przyspieszył wysiłki na rzecz wdrożenia zabezpieczeń prawnych. Czas pokaże, czy Kongres podejmie szybkie działania, aby zapobiec niekontrolowanemu wykorzystaniu sztucznej inteligencji do celów wojskowych, ale debata podkreśla pilną potrzebę przejrzystości etycznej w tej szybko rozwijającej się dziedzinie.




















