Techničtí obři pod palbou za propagaci aplikací na odstraňování AI

19

Nová zpráva od Tech Transparency Project (TTP) tvrdí, že Apple a Google nedokázaly prosadit svá vlastní bezpečnostní pravidla a účinně propagovat aplikace „nudify“, které porušují jejich podmínky použití. Tyto aplikace využívají generativní umělou inteligenci k vytváření intimních snímků bez souhlasu jednotlivců tím, že „odstraňují“ oblečení z fotografií lidí – většinou žen – za účelem vytváření pornografických deepfakes.

Mezera ve správě obchodu s aplikacemi

Zatímco Apple i Google mají přísné zásady proti „sexuálně explicitním nebo pornografickým materiálům“, vyšetřování naznačují značný rozdíl mezi písemnými zásadami a skutečným vymáháním.

Klíčová zjištění z vyšetřování TTP zahrnují:
Nepřetržitá dostupnost: Navzdory předchozím pokusům o boj jsou na obou platformách dostupné stovky takových aplikací.
Vyhledávání zranitelností: Uživatelé mohou stále vyhledávat provokativní výrazy, jako je “nahození”, “svlékání” a “hluboká nuda”.
Přímá propagace: Nejznepokojivější je, že zpráva tvrdí, že platformy aktivně zvyšovaly viditelnost těchto aplikací. Konkrétně byl Google označen za používání “kolotočových reklam” pro některé z nejexplicitnějších nalezených aplikací.
Explicitní marketing: Analýza 10 nejlepších aplikací v této kategorii ukázala, že 40 % z nich výslovně inzerovalo svou schopnost zobrazovat ženy nahé nebo polonahé.

Žízeň po zisku versus bezpečnost uživatelů

Šíření těchto aplikací vyvolává kritickou otázku: Proč to největší držitelé technologických cest umožňují?

Odpověď může spočívat v ekonomice ekosystému aplikací. Podle společnosti AppMagic, která se zabývá analýzou dat, vygenerovaly tyto „nudify“ aplikace za dobu své existence více než 122 milionů $ v příjmech a byly staženy přibližně 483 milionůkrát.

Protože Apple a Google dosahují značných zisků prostřednictvím reklamy a poplatků z placených předplatných, existuje vestavěná finanční bariéra bránící agresivnímu odstraňování vysoce ziskového, i když pravidla porušujícího softwaru. To vytváří konflikt mezi rolí platforem jako „morálních cenzorů“ a jejich rolí korporací zaměřených na zisk.

Rostoucí hrozba AI deepfakes

Tento problém je součástí většího a nebezpečného trendu zahrnujícího generativní AI. Díky technologii je vytváření nekonsensuálního sexualizovaného obsahu rychlejší, jednodušší a přesvědčivější než kdykoli předtím.

Rozsah problému je obrovský. Pro srovnání, na začátku tohoto roku uživatelé platformy AI Grok údajně vytvořili 1,4 milionu sexualizovaných deepfakes za pouhých devět dní. Navzdory výzvám amerických senátorů, aby takové nástroje z obchodů s aplikacemi odstranili, hlavní platformy reagovaly pomalu.

Odpovědi od společností Apple a Google

Obě společnosti vydaly prohlášení obhajující svou politiku kontroly:

  • Google říká, že Google Play nepovoluje sexuální obsah a říká, že mnoho z označených aplikací již bylo zablokováno.
  • Apple uvedl, že odstranil 15 označených aplikací a vydal varování šesti dalším vývojářům a zablokoval několik vyhledávání identifikovaných pomocí TTP.

„Tento tok příjmů může být důvodem, proč jsou společnosti méně ostražité vůči aplikacím strip, které porušují jejich pravidla,“ uzavřela zpráva TTP.


Závěr: Přítomnost aplikací „nudify“ na hlavních platformách ukazuje systémové selhání při regulaci škod způsobených umělou inteligencí. To naznačuje, že obrovské zisky generované těmito nástroji mohou podkopat bezpečnostní politiku navrženou k ochraně uživatelů.