Grok Dilaporkan Bikin Tiga Juta Gambar Bermuatan Seksual dalam 11 Hari

waktu baca 3 menit

Jakarta (KABARIN) - Laporan terbaru mengungkap sisi gelap penggunaan AI Grok. Dalam waktu hanya 11 hari, sistem AI milik xAI itu dilaporkan telah menghasilkan sekitar tiga juta gambar bermuatan seksual tanpa persetujuan, termasuk sekitar 23.000 gambar yang menampilkan anak-anak.

Mengutip laporan Engadget pada Jumat, temuan tersebut berasal dari riset organisasi nirlaba asal Inggris, Center for Countering Digital Hate (CCDH). Laporan ini langsung memicu sorotan serius terhadap keamanan dan pengawasan teknologi AI generatif.

Penelitian CCDH dilakukan dengan menganalisis sampel acak 20.000 gambar yang dihasilkan Grok antara 29 Desember 2025 hingga 9 Januari 2026. Dari sampel tersebut, CCDH memproyeksikan data ke total sekitar 4,6 juta gambar yang dibuat Grok dalam periode yang sama.

Hasilnya cukup mencengangkan. CCDH memperkirakan Grok memproduksi rata-rata 190 gambar bermuatan seksual setiap menit. Dari angka tersebut, satu gambar yang menampilkan anak-anak diperkirakan muncul setiap 41 detik.

Dalam laporannya, CCDH mendefinisikan gambar bermuatan seksual sebagai representasi fotorealistik seseorang dalam posisi, sudut, atau situasi seksual. Termasuk di dalamnya gambar orang dengan pakaian minim seperti pakaian dalam atau baju renang, hingga visual yang menampilkan cairan seksual.

Penelitian ini tidak membedakan apakah gambar tersebut merupakan hasil manipulasi foto orang sungguhan atau sepenuhnya dibuat dari perintah teks. CCDH menggunakan alat berbasis AI untuk mengidentifikasi proporsi konten seksual dalam sampel yang dianalisis.

Meski metode ini tetap membutuhkan kehati-hatian dalam membaca hasil, CCDH menyebut banyak layanan analitik pihak ketiga cukup andal karena memanfaatkan API platform X.

Menanggapi temuan tersebut, xAI mulai membatasi fitur Grok. Pada 9 Januari, kemampuan Grok untuk mengedit gambar yang sudah ada dibatasi hanya untuk pengguna berbayar. Lima hari kemudian, platform X juga membatasi kemampuan Grok untuk membuat gambar orang dengan busana minim atau dalam kondisi telanjang.

Namun, pembatasan itu hanya berlaku di dalam platform X. Aplikasi mandiri Grok dilaporkan masih bisa menghasilkan gambar serupa tanpa kendala berarti.

Situasi ini makin disorot karena kebijakan Apple dan Google sebenarnya secara tegas melarang aplikasi yang menghasilkan konten seksual tanpa izin, termasuk yang melibatkan anak-anak. Meski begitu, hingga kini aplikasi Grok belum dihapus dari App Store maupun Play Store.

Langkah tersebut dinilai berbeda dengan penanganan terhadap aplikasi serupa dari pengembang lain yang sebelumnya langsung diturunkan dari toko aplikasi.

Sebanyak 28 kelompok advokasi perempuan bersama sejumlah organisasi masyarakat sipil telah mengirim surat terbuka yang mendesak Apple dan Google agar segera bertindak. Namun sampai sekarang, kedua perusahaan belum memberikan tanggapan publik maupun menjawab permintaan komentar dari media.

CCDH juga mencatat bahwa sebagian gambar bermuatan seksual tersebut menampilkan figur publik, termasuk tokoh politik dan selebritas internasional. Lebih mengkhawatirkan lagi, beberapa gambar yang melibatkan anak-anak masih bisa diakses di platform X hingga pertengahan Januari.

Meski unggahan aslinya sudah dihapus, gambar-gambar tersebut masih dapat diakses melalui tautan langsung, memperlihatkan betapa rumitnya tantangan pengawasan konten di era AI generatif.

Sumber: Engadget

Bagikan

Mungkin Kamu Suka