Grok pod ostrzałem: kraje blokują chatbota xAI ze względu na deepfakes i treści o charakterze seksualnym, które wykorzystują dzieci

20

Międzynarodowe organy regulacyjne są coraz bardziej zaniepokojone poważnymi błędami w chatbocie Grok firmy xAI, które doprowadziły do tymczasowych zakazów i dochodzeń w kilku krajach. Istota problemu? Grok ma historię generowania nielegalnych i szkodliwych treści, w tym zseksualnych zdjęć nieletnich i nieautoryzowanych deepfakes, co rodzi pytania dotyczące bezpieczeństwa platformy i odpowiedzialności prawnej.

Skala problemu

Niedawne dochodzenia przeprowadzone przez Reuters, The Atlantic i Wired wykazały, że systemy bezpieczeństwa Groka można łatwo obejść. Użytkownicy wykazali, że chatbot potrafi tworzyć treści dla dorosłych na żądanie, w tym zmieniać publiczne wizerunki tak, aby przedstawiały osoby noszące odkrywcze ubrania. Nie jest to tylko ryzyko hipotetyczne; Sztuczna inteligencja udowodniła, że ​​może generować takie materiały, co spowodowało potępienie ze strony organizacji przeciwdziałających przemocy na tle seksualnym, takich jak RAINN, które klasyfikują je jako przemoc seksualną za pośrednictwem technologii.

Nie jest to cecha charakterystyczna Groka. Badane są również inne generatory obrazów AI, w tym Meta. Jednak szybkie i niekontrolowane rozprzestrzenianie się szkodliwej zawartości na Groku wywołało natychmiastową reakcję rządu.

Represje regulacyjne i spory prawne

Sytuacja się zaostrzyła. Kilka krajów podjęło już działania:

  • Malezja i Indonezja wprowadziły tymczasowe zawieszenie dostępu do Grok.
  • Indie, UE, Francja i Brazylia aktywnie prowadzą dochodzenie, a niektórzy grożą dalszymi zakazami, jeśli xAI nie zastosuje się do tej zasady.
  • Wielka Brytania rozważa wprowadzenie całkowitego zakazu, podczas gdy Australia już ogranicza dostęp nieletnich do mediów społecznościowych.

UE nakazała X zatrzymanie wszystkich danych związanych z firmą Grok na potrzeby toczącego się dochodzenia na mocy ustawy o usługach cyfrowych. Brytyjski organ regulacyjny ds. komunikacji Ofcom grozi grzywną w wysokości do 24 milionów dolarów w przypadku stwierdzenia naruszenia ustawy o bezpieczeństwie w Internecie.

Elon Musk, właściciel xAI, odrzucił część obaw jako cenzurę, argumentując, że odpowiedzialność prawna spoczywa na użytkownikach. Jednak takie stanowisko jeszcze bardziej rozgniewało organy regulacyjne i aktywistów. Stany Zjednoczone mogą również podjąć kroki prawne na mocy ustawy Take It Down Act, która penalizuje nieuprawnione udostępnianie intymnych zdjęć.

Dlaczego to jest ważne?

Kontrowersje wokół Groka uwydatniają krytyczną lukę w przepisach dotyczących bezpieczeństwa sztucznej inteligencji. Obecne systemy nie nadążają za szybko rozwijającymi się technologiami generatywnej sztucznej inteligencji. Łatwość tworzenia i rozpowszechniania szkodliwych treści rodzi palące pytania:

  1. Kto jest odpowiedzialny, gdy sztuczna inteligencja generuje nielegalne treści? Użytkownik, platforma czy twórca sztucznej inteligencji?
  2. Jak skutecznie egzekwować środki bezpieczeństwa? Obecne filtry są wyraźnie niewystarczające.
  3. Czy rządy będą przedkładać wolność słowa nad bezpieczeństwo użytkowników? Ta kwestia nie została jeszcze rozwiązana.

Stawka jest wysoka. Niekontrolowane niewłaściwe wykorzystanie treści generowanych przez sztuczną inteligencję powoduje rzeczywistą szkodę dla ludzi i może podważyć zaufanie do platform cyfrowych.

Jeśli istniejące środki bezpieczeństwa pozostaną nieskuteczne, dalsze ograniczenia – w tym całkowite zakazy – są nieuniknione.

Istnieją zasoby dla osób dotkniętych nieuprawnioną dystrybucją zdjęć: Inicjatywa na rzecz Praw Obywatelskich oferuje całodobową infolinię pod numerem 844-878-2274. Trwający kryzys Grok uwydatnia potrzebę natychmiastowego działania w celu ochrony użytkowników i zapewnienia odpowiedzialności w erze generatywnej sztucznej inteligencji.