Nowy raport Tech Transparency Project (TTP) stwierdza, że Apple i Google nie egzekwowały własnych zasad bezpieczeństwa, skutecznie promując aplikacje „nudify”, które naruszają ich warunki użytkowania. Aplikacje te wykorzystują generatywną sztuczną inteligencję do tworzenia intymnych obrazów bez zgody poszczególnych osób poprzez „usuwanie” ubrań ze zdjęć ludzi – głównie kobiet – w celu tworzenia pornograficznych deepfake’ów.
Luka w zarządzaniu sklepem z aplikacjami
Chociaż zarówno Apple, jak i Google mają rygorystyczne zasady dotyczące „materiałów o charakterze jednoznacznie seksualnym lub pornograficznym”, dochodzenia wskazują na znaczną rozbieżność między pisemnymi zasadami a faktycznym egzekwowaniem.
Najważniejsze ustalenia z dochodzenia dotyczącego TTP obejmują:
– Ciągła dostępność: Pomimo wcześniejszych prób zwalczania, na obu platformach nadal dostępne są setki takich aplikacji.
– Błędy wyszukiwania: Użytkownicy nadal mogą wyszukiwać prowokacyjne hasła, takie jak „nudify”, „rozbieranie” i „deepnude”.
– Promocja bezpośrednia: Najbardziej alarmujący jest raport stwierdzający, że platformy aktywnie zwiększały widoczność tych aplikacji. W szczególności oznaczono firmę Google za używanie „reklam karuzelowych” w przypadku niektórych z najbardziej wulgarnych aplikacji.
– Marketing jawny: Analiza 10 najpopularniejszych aplikacji w tej kategorii wykazała, że 40% z nich wyraźnie reklamowało możliwość przedstawiania kobiet nagich lub półnagich.
Chęć zysku kontra bezpieczeństwo użytkownika
Rozpowszechnianie się tych aplikacji rodzi krytyczne pytanie: dlaczego najwięksi posiadacze ścieżek technologicznych na to pozwalają?
Odpowiedź może leżeć w ekonomii ekosystemu aplikacji. Według firmy AppMagic zajmującej się analizą danych te „nudify” aplikacje wygenerowały w ciągu swojego istnienia ponad 122 miliony dolarów przychodów i zostały pobrane około 483 milionów razy.
Ponieważ Apple i Google osiągają znaczne zyski dzięki reklamom i opłatom z płatnych subskrypcji, istnieje wbudowana bariera finansowa uniemożliwiająca agresywne usuwanie wysoce dochodowego, aczkolwiek łamiącego zasady oprogramowania. Stwarza to konflikt między rolą platform jako „cenzorów moralności” a ich rolą jako korporacji nastawionych na zysk.
Rosnące zagrożenie ze strony deepfakes AI
Problem ten jest częścią większego i niebezpiecznego trendu związanego z generatywną sztuczną inteligencją. Technologia sprawiła, że tworzenie bez zgody treści o charakterze seksualnym jest szybsze, łatwiejsze i bardziej przekonujące niż kiedykolwiek wcześniej.
Skala problemu jest ogromna. Dla porównania, na początku tego roku użytkownicy platformy AI Grok według doniesień stworzyli 1,4 miliona deepfake’ów o charakterze seksualnym w ciągu zaledwie dziewięciu dni. Pomimo wezwań senatorów USA do usunięcia takich narzędzi ze sklepów z aplikacjami, główne platformy reagują powoli.
Odpowiedzi od Apple i Google
Obie spółki wydały oświadczenia broniące swojej polityki kontrolnej:
- Google twierdzi, że Google Play nie zezwala na treści o charakterze seksualnym i że wiele oflagowanych aplikacji zostało już zablokowanych.
- Apple twierdzi, że usunął 15 oznaczonych aplikacji i wydał ostrzeżenia sześciu innym programistom, a także zablokował kilka wyszukiwań zidentyfikowanych przez TTP.
„Ten strumień przychodów może być powodem, dla którego firmy są mniej czujne w przypadku aplikacji ze striptizem, które naruszają ich zasady” – podsumowano w raporcie TTP.
Wniosek: obecność aplikacji „nudify” na głównych platformach pokazuje systemowy brak regulacji szkód powodowanych przez sztuczną inteligencję. Sugeruje to, że ogromne zyski generowane przez te narzędzia mogą podważyć politykę bezpieczeństwa mającą na celu ochronę użytkowników.





















