Rosnąca kampania internetowa o nazwie „QuitGPT” namawia użytkowników do porzucenia ChatGPT OpenAI po nawiązaniu nowego partnerstwa z Departamentem Obrony USA. Ruch, który domaga się wsparcia ponad 1,5 miliona członków, oskarża OpenAI o przedkładanie zysku nad względy etyczne poprzez zgodę na wdrażanie swoich modeli sztucznej inteligencji w tajnych sieciach wojskowych.
Kontrowersje: granice etyczne i bezpieczeństwo narodowe
Oburzenie wynikało z oświadczenia dyrektora generalnego OpenAI Sama Altmana z 28 lutego, że jego firma zintegruje swoje modele z tajnymi systemami Pentagonu. Posunięcie to następuje po tym, jak Anthropic, konkurencyjna firma zajmująca się sztuczną inteligencją, odrzuca podobną prośbę Departamentu Obrony ze względów etycznych. Dyrektor generalny Anthropic, Dario Amodei, powiedział, że nieograniczony dostęp do systemów sztucznej inteligencji firmy może „raczej podważać niż chronić wartości demokratyczne” oraz że niektóre aplikacje wykraczają poza to, co może bezpiecznie i niezawodnie wykonywać obecna technologia.
Według doniesień Pentagon wywierał presję na Anthropic, grożąc utratą kontraktu o wartości 200 milionów dolarów, jeśli firma nie złagodzi swoich protokołów bezpieczeństwa. OpenAI szybko jednak zajęło wolne miejsce. Altman bronił tej decyzji, twierdząc, że Departament Obrony wykazał „głęboki szacunek dla bezpieczeństwa” i zaangażowanie we współpracę.
Wyjdź z GPT: wezwanie do działania
Kampania „QuitGPT” argumentuje, że rozwiązanie OpenAI umożliwia potencjalne wykorzystanie sztucznej inteligencji w śmiercionośnych autonomicznych systemach uzbrojenia i masowej inwigilacji, skutecznie przedkładając zysk nad bezpieczeństwo publiczne. Grupa twierdzi, że wielu użytkowników błędnie wierzy, że ChatGPT jest jedyną opcją i aktywnie promuje alternatywne platformy, takie jak Confer, Alpine, Lumo, Gemini firmy Google i Claude firmy Anthropic. Nie zalecają bezpośrednio używania Groka od Elona Muska.
„Ludzie myślą, że ChatGPT to jedyny chatbot na rynku” – głosi kampania. „Czas to zmienić”.
Rosnący ruch
QuitGPT zaplanowało osobisty protest w siedzibie OpenAI w San Francisco na 3 marca, sygnalizując eskalację wysiłków. Kampania odwołuje się do szerszych obaw związanych z niekontrolowanym rozwojem sztucznej inteligencji i militaryzacją tej technologii. Incydent rodzi pytania o rolę prywatnych firm w bezpieczeństwie narodowym i czy standardy etyczne powinny mieć pierwszeństwo przed lukratywnymi kontraktami rządowymi.
Dynamika bojkotu wskazuje na rosnącą świadomość społeczną dotyczącą potencjalnych zagrożeń związanych z wojskowym wykorzystaniem sztucznej inteligencji oraz na to, czy partnerstwo OpenAI z Pentagonem stanowi krytyczny punkt zwrotny w toczącej się debacie.





















