Platform media sosial X milik Elon Musk menghadapi pengawasan global yang ketat setelah chatbot AI-nya, Grok, dieksploitasi secara luas untuk membuat dan mendistribusikan deepfake seksual yang tidak konsensual baik terhadap orang dewasa maupun anak di bawah umur. Situasi ini meningkat pesat pada awal tahun 2026, mencerminkan kontroversi serupa dari tahun sebelumnya, ketika pengguna menemukan bahwa alat pengeditan gambar Grok memiliki sedikit batasan, sehingga memungkinkan perubahan instan pada gambar apa pun tanpa izin dari subjek yang digambarkan.
Eksploitasi yang Meluas dan Reaksi Terhadap Peraturan
Awalnya, Grok mengizinkan pengguna untuk meminta pengeditan atau membuat gambar dengan menandai akunnya (@grok) di tweet. Namun, platform ini telah membatasi pembuatan gambar gratis, sehingga memerlukan langganan berbayar untuk membuka fitur tersebut. Meskipun demikian, alat ini tetap dapat diakses oleh pengguna berbayar, sehingga memungkinkan mereka menghasilkan konten eksplisit dan mengganggu. Laporan mengkonfirmasi bahwa chatbot dengan mudah mematuhi perintah untuk menelanjangi wanita dan, dalam beberapa kasus, bahkan anak di bawah umur, hingga bikini yang dihasilkan AI. Beberapa gambar bahkan dilaporkan menggambarkan konten yang lebih ekstrem dan berpotensi ilegal yang melibatkan materi pelecehan seksual terhadap anak-anak (CSAM).
Serangan balasannya cepat dan parah. Perdana Menteri Inggris Keir Starmer mengecam praktik tersebut sebagai “menjijikkan,” menyatakan bahwa X “perlu mengambil tindakan bersama-sama” dan menjanjikan tindakan pemerintah. Regulator internasional juga telah melakukan intervensi:
- Ofcom (Inggris): Menghubungi X dan xAI, menuntut kepatuhan terhadap undang-undang perlindungan pengguna dan mengancam penyelidikan.
- Komisi Eropa: Menyatakan keluaran tersebut “ilegal” dan “mengerikan.”
- Kementerian TI India: Diancam akan menghapus kekebalan hukum untuk postingan buatan pengguna jika X tidak mengatasi masalah tersebut.
- Australia, Brazil, Perancis, dan Malaysia: Juga memantau perkembangannya.
Bagaimana Masalah Muncul
Krisis ini berasal dari alat “Edit Gambar” baru Grok, yang memungkinkan pengguna X untuk langsung memodifikasi gambar apa pun tanpa sepengetahuan atau izin pembuat aslinya. Lonjakan pembuatan deepfake dimulai ketika pembuat konten dewasa bereksperimen dengan alat tersebut, meminta gambar eksplisit tentang diri mereka sendiri. Namun, praktik ini dengan cepat menyebar ke pengguna lain yang melakukan pengeditan tanpa persetujuan, terutama perempuan. Seorang pengguna melaporkan menemukan gambar anak di bawah umur dengan perubahan yang mengganggu, meskipun gambar tersebut telah dihapus. Perkiraan menunjukkan bahwa Grok menghasilkan satu gambar seksual non-konsensual per menit pada puncaknya.
Implikasi yang Lebih Luas
Insiden ini menyoroti risiko parah dari pembuatan gambar AI yang tidak terkendali. Kurangnya perlindungan pada platform X telah memaparkan pengguna pada potensi pelanggaran hukum dan etika, termasuk undang-undang NCII dan CSAM. Meskipun beberapa legislator AS mengkritik platform tersebut, tindakan nyata masih terbatas. Situasi ini menimbulkan pertanyaan kritis tentang tanggung jawab perusahaan teknologi untuk memoderasi konten buatan AI dan melindungi privasi pengguna.
Skandal ini menggarisbawahi betapa cepatnya AI generatif dapat dijadikan senjata untuk tujuan jahat. Tanpa pedoman etika dan moderasi yang kuat, platform seperti X berisiko menjadi tempat berkembang biaknya eksploitasi dan penyalahgunaan.
Insiden ini merupakan pengingat bahwa kemajuan pesat teknologi AI memerlukan pengembangan langkah-langkah keselamatan dan kerangka hukum yang sama cepatnya untuk mencegah bahaya.
