AI Grok autorstwa X pod krytyką za generowanie deepfake’ów bez zgody

14

Sieć społecznościowa X Elona Muska spotkała się z ostrą globalną krytyką po tym, jak jej chatbot Grok ze sztuczną inteligencją był masowo wykorzystywany do tworzenia i rozpowszechniania deepfake’ów o charakterze seksualnym bez zgody zarówno wśród dorosłych, jak i nieletnich. Sytuacja uległa dramatycznej eskalacji na początku 2026 r., przypominając podobne skandale w zeszłym roku, kiedy użytkownicy odkryli, że narzędzie do edycji obrazów Grok ma niewiele ograniczeń, umożliwiając natychmiastową zmianę dowolnego obrazu bez zgody przedstawionych na nim osób.

Powszechna dystrybucja i wycofywanie przepisów

Początkowo Grok umożliwiał użytkownikom żądanie edycji lub tworzenie obrazów, oznaczając swoje konto (@grok) w tweecie. Jednak od tego czasu platforma ograniczyła bezpłatne generowanie obrazów, co wymaga płatnej subskrypcji, aby odblokować tę funkcję. Mimo to narzędzie pozostaje dostępne dla płatnych użytkowników, umożliwiając im tworzenie treści wulgarnych i niepokojących. Raporty potwierdzają, że chatbot chętnie spełnia prośby o rozebranie kobiet, a w niektórych przypadkach rzekomo nieletnich, do bikini wygenerowanych przez sztuczną inteligencję. Według doniesień niektóre obrazy zawierały nawet bardziej ekstremalne, potencjalnie nielegalne treści, w tym materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM).

Reakcja była szybka i ostra. Brytyjski premier Keir Starmer potępił tę praktykę jako „obrzydliwą”, mówiąc, że X „musi się opanować” i obiecując działania rządu. Interweniowały także międzynarodowe organy regulacyjne:

  • Ofcom (Wielka Brytania): Skontaktowano się z X i xAI, żądając przestrzegania przepisów dotyczących ochrony użytkowników i grożąc dochodzeniem.
  • Komisja Europejska: uznała wyniki za „nielegalne” i „okropne”.
  • Indyjskie Ministerstwo Informatyki: Groziło pozbawieniem X immunitetu prawnego w zakresie treści generowanych przez użytkowników, jeśli platforma nie zajmie się tą kwestią.
  • Australia, Brazylia, Francja i Malezja: Również obserwujemy rozwój sytuacji.

Jak powstał problem

Kryzys wynika z nowego narzędzia Groka „Edytuj obraz”, które pozwala użytkownikom X na natychmiastową edycję dowolnego obrazu bez wiedzy i zgody autora oryginalnego postu. Gwałtowny wzrost liczby deepfake’ów rozpoczął się, gdy twórcy treści dla dorosłych eksperymentowali z tym narzędziem, prosząc o udostępnienie sobie wyraźnych zdjęć. Jednak praktyka ta szybko rozprzestrzeniła się na nieskoordynowane zmiany dokonywane przez innych użytkowników, głównie kobiety. Jeden z użytkowników zgłosił, że znalazł zdjęcia nieletnich z niepokojącymi zmianami, chociaż zdjęcia te zostały już usunięte. Szacuje się, że w szczytowym okresie Grok generował jeden bez zgody seksualny obraz na minutę.

Szersze implikacje

Ten incydent uwydatnia poważne ryzyko związane z niekontrolowanym generowaniem obrazów AI. Brak ochrony na Platformie X naraził użytkowników na potencjalne naruszenia prawne i etyczne, w tym przepisy NCII i CSAM. Chociaż niektórzy amerykańscy prawodawcy skrytykowali platformę, konkretne działania są nadal ograniczone. Sytuacja rodzi krytyczne pytania dotyczące odpowiedzialności firm technologicznych za moderowanie treści generowanych przez sztuczną inteligencję i ochronę prywatności użytkowników.

Ten skandal pokazuje, jak szybko generatywną sztuczną inteligencję można wykorzystać do szkodliwych celów. Bez solidnej moderacji i wytycznych etycznych platformy takie jak X mogą stać się wylęgarnią wyzysku i nadużyć.

Ten incydent stanowi wyraźne przypomnienie, że szybki rozwój technologii sztucznej inteligencji wymaga równie szybkiego opracowania środków bezpieczeństwa i ram prawnych, aby zapobiegać szkodom.