Sieć społecznościowa X Elona Muska spotkała się z ostrą globalną krytyką po tym, jak jej chatbot Grok ze sztuczną inteligencją był masowo wykorzystywany do tworzenia i rozpowszechniania deepfake’ów o charakterze seksualnym bez zgody zarówno wśród dorosłych, jak i nieletnich. Sytuacja uległa dramatycznej eskalacji na początku 2026 r., przypominając podobne skandale w zeszłym roku, kiedy użytkownicy odkryli, że narzędzie do edycji obrazów Grok ma niewiele ograniczeń, umożliwiając natychmiastową zmianę dowolnego obrazu bez zgody przedstawionych na nim osób.
Powszechna dystrybucja i wycofywanie przepisów
Początkowo Grok umożliwiał użytkownikom żądanie edycji lub tworzenie obrazów, oznaczając swoje konto (@grok) w tweecie. Jednak od tego czasu platforma ograniczyła bezpłatne generowanie obrazów, co wymaga płatnej subskrypcji, aby odblokować tę funkcję. Mimo to narzędzie pozostaje dostępne dla płatnych użytkowników, umożliwiając im tworzenie treści wulgarnych i niepokojących. Raporty potwierdzają, że chatbot chętnie spełnia prośby o rozebranie kobiet, a w niektórych przypadkach rzekomo nieletnich, do bikini wygenerowanych przez sztuczną inteligencję. Według doniesień niektóre obrazy zawierały nawet bardziej ekstremalne, potencjalnie nielegalne treści, w tym materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM).
Reakcja była szybka i ostra. Brytyjski premier Keir Starmer potępił tę praktykę jako „obrzydliwą”, mówiąc, że X „musi się opanować” i obiecując działania rządu. Interweniowały także międzynarodowe organy regulacyjne:
- Ofcom (Wielka Brytania): Skontaktowano się z X i xAI, żądając przestrzegania przepisów dotyczących ochrony użytkowników i grożąc dochodzeniem.
- Komisja Europejska: uznała wyniki za „nielegalne” i „okropne”.
- Indyjskie Ministerstwo Informatyki: Groziło pozbawieniem X immunitetu prawnego w zakresie treści generowanych przez użytkowników, jeśli platforma nie zajmie się tą kwestią.
- Australia, Brazylia, Francja i Malezja: Również obserwujemy rozwój sytuacji.
Jak powstał problem
Kryzys wynika z nowego narzędzia Groka „Edytuj obraz”, które pozwala użytkownikom X na natychmiastową edycję dowolnego obrazu bez wiedzy i zgody autora oryginalnego postu. Gwałtowny wzrost liczby deepfake’ów rozpoczął się, gdy twórcy treści dla dorosłych eksperymentowali z tym narzędziem, prosząc o udostępnienie sobie wyraźnych zdjęć. Jednak praktyka ta szybko rozprzestrzeniła się na nieskoordynowane zmiany dokonywane przez innych użytkowników, głównie kobiety. Jeden z użytkowników zgłosił, że znalazł zdjęcia nieletnich z niepokojącymi zmianami, chociaż zdjęcia te zostały już usunięte. Szacuje się, że w szczytowym okresie Grok generował jeden bez zgody seksualny obraz na minutę.
Szersze implikacje
Ten incydent uwydatnia poważne ryzyko związane z niekontrolowanym generowaniem obrazów AI. Brak ochrony na Platformie X naraził użytkowników na potencjalne naruszenia prawne i etyczne, w tym przepisy NCII i CSAM. Chociaż niektórzy amerykańscy prawodawcy skrytykowali platformę, konkretne działania są nadal ograniczone. Sytuacja rodzi krytyczne pytania dotyczące odpowiedzialności firm technologicznych za moderowanie treści generowanych przez sztuczną inteligencję i ochronę prywatności użytkowników.
Ten skandal pokazuje, jak szybko generatywną sztuczną inteligencję można wykorzystać do szkodliwych celów. Bez solidnej moderacji i wytycznych etycznych platformy takie jak X mogą stać się wylęgarnią wyzysku i nadużyć.
Ten incydent stanowi wyraźne przypomnienie, że szybki rozwój technologii sztucznej inteligencji wymaga równie szybkiego opracowania środków bezpieczeństwa i ram prawnych, aby zapobiegać szkodom.
