In einem neuen Bericht des Tech Transparency Project (TTP) wird behauptet, dass Apple und Google es versäumt haben, ihre eigenen Sicherheitsrichtlinien durchzusetzen, und effektiv „Nudify“-Apps gefördert haben, die gegen ihre Nutzungsbedingungen verstoßen. Diese Anwendungen verwenden generative KI, um nicht einvernehmliche intime Bilder zu erstellen, indem sie Fotos von Personen – überwiegend Frauen – von der Kleidung befreien, um Deepfake-Pornografie zu erstellen.
Die Lücke in der App Store Governance
Während sowohl Apple als auch Google strenge Richtlinien gegen „offensichtlich sexuelles oder pornografisches Material“ einhalten, deuten Untersuchungen darauf hin, dass eine erhebliche Lücke zwischen schriftlichen Regeln und tatsächlicher Durchsetzung besteht.
Zu den wichtigsten Erkenntnissen der TTP-Untersuchung gehören:
– Ständige Verfügbarkeit: Trotz früherer Maßnahmen bleiben Hunderte dieser Apps auf beiden Plattformen zugänglich.
– Sicherheitslücken bei der Suche: Benutzer können weiterhin nach provokanten Begriffen wie „nudify“, „undress“ und „deepnude“ suchen.
– Direkte Werbung: Am besorgniserregendsten ist in dem Bericht, dass die Plattformen die Sichtbarkeit dieser Apps aktiv erhöht haben. Google wurde besonders dafür bekannt, dass es ein „Karussell mit Anzeigen“ für einige der entdeckten sexuell expliziten Anwendungen bereitstellte.
– Explizites Marketing: Eine Analyse der Top-10-Apps in dieser Kategorie ergab, dass 40 % explizit ihre Fähigkeit beworben haben, Frauen nackt oder spärlich bekleidet darzustellen.
Das Gewinnmotiv vs. Benutzersicherheit
Die Verbreitung dieser Apps wirft eine kritische Frage auf: Warum lassen die größten Tech-Gatekeeper der Welt zu, dass dies so weitergeht?
Die Antwort könnte in der Ökonomie des App-Ökosystems liegen. Laut Daten des Analyseunternehmens AppMagic haben diese „nudify“-Apps einen Gesamtumsatz von über 122 Millionen US-Dollar generiert und wurden ungefähr 483 Millionen Mal heruntergeladen.
Da Apple und Google erhebliche Einnahmen durch Werbung und Provisionen für kostenpflichtige Abonnements erzielen, besteht ein eingebauter finanzieller Anreiz, leistungsstarke, wenn auch gegen Richtlinien verstoßende Software aggressiv zu entfernen. Dadurch entsteht ein Spannungsverhältnis zwischen der Rolle der Plattformen als „moralische Torwächter“ und ihrer Rolle als gewinnorientierte Unternehmen.
Die wachsende Bedrohung durch KI-Deepfakes
Dieses Problem ist Teil eines umfassenderen, gefährlicheren Trends im Zusammenhang mit generativer KI. Die Technologie hat die Erstellung nicht einvernehmlicher sexueller Inhalte schneller, einfacher und überzeugender als je zuvor gemacht.
Das Ausmaß des Problems ist immens. Zum Vergleich: Anfang des Jahres haben Benutzer der KI-Plattform Grok Berichten zufolge in nur neun Tagen 1,4 Millionen sexualisierte Deepfakes generiert. Trotz der Forderungen von US-Senatoren, solche Tools aus den App-Stores zu entfernen, reagieren die großen Plattformen nur langsam.
Antworten von Apple und Google
Beide Unternehmen haben Erklärungen abgegeben, in denen sie ihr Versehen verteidigen:
- Google behauptet, dass Google Play keine sexuellen Inhalte zulasse und behauptet, dass viele der gekennzeichneten Apps bereits gesperrt wurden.
- Apple berichtete, dass es 15 markierte Apps entfernt und sechs weitere Entwickler gewarnt hat, während es außerdem mehrere von der TTP identifizierte Suchbegriffe blockiert hat.
„Diese Einnahmequelle könnte der Grund dafür sein, dass die beiden Unternehmen nicht besonders wachsam waren, wenn es darum ging, Apps zu bestrafen, die gegen ihre Richtlinien verstoßen“, kommt der TTP-Bericht zu dem Schluss.
Schlussfolgerung: Das Vorhandensein von „nudify“-Apps auf großen Plattformen zeigt ein systemisches Versagen bei der Regulierung von KI-bedingtem Schaden, was darauf hindeutet, dass die enormen Einnahmen, die durch diese Tools generiert werden, möglicherweise die Sicherheitsrichtlinien untergraben, die zum Schutz der Benutzer gedacht sind.
