Model Deepfake Non-Konsensual Merajalela – Melék Media


Beranda  »  Artikel » Media Baru   »   Model Deepfake Non-Konsensual Merajalela

Model Deepfake Non-Konsensual Merajalela

Oleh: Melekmedia -- 24 Juni, 2025 
Tentang: , ,  –  Komentar Anda?

maxim mogilevskiy deepfake unsplash

Studi terbaru dari Oxford Internet Institute, Universitas Oxford, telah mengungkap peningkatan ketersediaan model deepfake yang mudah diakses dan berpotensi digunakan untuk membuat konten non-konsensual.

Penelitian yang dipresentasikan pada FAccT ’25, menyoroti tantangan besar dari kemajuan model akal imitasi (AI) teks-ke-gambar (T2I), khususnya terkait citra intim non-konsensual (NCII). Istilah “model” merujuk pada program atau sistem AI yang telah dilatih.

Studi “Deepfakes on Demand: the rise of accessible non-consensual deepfake image generators“, yang dilakukan Will Hawkins, Chris Russell, dan Brent Mittelstadt, menganalisis ribuan varian model yang dapat diunduh publik dari dua repositori model AI terkemuka, Hugging Face dan Civitai.

Mereka menemukan bahwa hampir 35.000 varian model deepfake dapat diunduh publik. Model-model ini diunduh hampir 15 juta kali sejak November 2022, menargetkan berbagai individu, mulai dari selebriti global hingga pengguna Instagram dengan kurang dari 10.000 pengikut.

Sejumlah kasus deepfake yang menonjol bisa jadi pelajaran, menyoroti potensi penyalahgunaan dan dampaknya yang merusak. Misal video deepfake politisi terkenal yang membuat pernyataan palsu, yang dapat mengikis kepercayaan publik dan mengganggu proses demokrasi.

Kasus deepfake selebriti dibuat tanpa persetujuan, seringkali dengan tujuan seksual, yang menyebabkan kerugian reputasi dan psikologis yang parah bagi korban. Insiden deepfake telah melibatkan tokoh seperti Gal Gadot, Scarlett Johansson, bahkan pengguna TikTok biasa.

Insiden ini memicu perdebatan luas tentang perlunya regulasi yang lebih ketat. Di sisi pengguna, memberi peringatan terhadap ancaman penyalahgunaan konten selfie berisi foto wajah di media sosial terbuka.

Aksesibilitas yang Mengkhawatirkan

Kemudahan membuat dan menyebarkan model deepfake, justru jadi ancaman. Proses ini makin mudah berkat teknik fine-tuning yang efisien, khususnya Low Rank Adaptation (LoRA). Teknik ini memungkinkan pengguna menyesuaikan model dasar dengan hanya 20 gambar, 24GB VRAM, dan sekitar 15 menit untuk memprosesnya.

Ini berarti pembuatan deepfake kini dapat dilakukan dengan komputer konsumen biasa, membuat ancaman ini berlaku untuk siapa saja yang memiliki akses internet dan keahlian teknis dasar.

“Kemampuan untuk menyetel model secara efisien tampaknya menjadi pendorong utama lonjakan cepat model deepfake, dengan 80% model ‘Selebriti’ di Civitai ditandai sebagai adaptor LoRA,” kata para peneliti.

“Terobosan ini telah mengurangi hambatan pengembangan, dengan sedikit waktu, komputasi, atau keahlian untuk membuat model deepfake, dan dengan kemudahan berbagi dan menghostingnya melalui repositori model daring yang tersedia untuk umum,” lanjut mereka.

Kemudahan teknologi pembuatan deepfake bisa semakin meluas dan masif. Akses yang makin mudah telah menjadi pisau bermata dua: Memperluas pemanfaatan teknologi, sekaligus ancaman terhadap privasi.

Perempuan Menjadi Sasaran Utama

Analisis terhadap lebih dari 2.000 model deepfake Flux dan Stable Diffusion mengungkapkan pola yang mengkhawatirkan: 96% dari model ini menarget perempuan. Tren ini konsisten di seluruh platform dan metrik penggunaan, mayoritas unduhan terkait citra individu berpenampilan perempuan.

Ini menggarisbawahi bias gender yang parah dalam penyalahgunaan teknologi ini, yang sebagian besar sejalan dengan laporan sebelumnya tentang prevalensi NCII (non-consensual intimate imagery).

Meskipun banyak model ditandai sebagai “selebriti,” penelitian ini menemukan bahwa sebagian besar target sebenarnya adalah “selebriti” dalam arti yang lebih luas, termasuk influencer media sosial dengan pengikut yang relatif kecil.

Ini menunjukkan bahwa ancaman deepfake tidak terbatas pada tokoh masyarakat terkenal, tetapi dapat menargetkan individu biasa, meningkatkan risiko pelecehan dan pencemaran nama baik.

Mereka memanen konten dari media sosial tanpa izin (non-konsensual), di sisi lain foto-foto yang dibutuhkan melimpah di berbagai kanal media sosial.

“Red Flag” dan Celah Kebijakan

Para peneliti mengidentifikasi berbagai “red flag” dalam metadata model (tag, nama pengguna, deskripsi) yang secara langsung menyarankan niat untuk menghasilkan citra intim atau pornografi.

Misalnya, tag seperti “seksi,” “pornografi,” dan “telanjang” sangat populer. Meski platform hosting seperti Hugging Face dan Civitai memiliki Ketentuan Layanan yang melarang konten semacam itu, studi menunjukkan adanya celah dan kurangnya penegakan aturan.

“Meskipun banyak model tidak secara eksplisit dirancang untuk menghasilkan konten seksual, banyak yang diterbitkan oleh pembuat dengan nama pengguna yang menyarankan kasus penggunaan tersebut, termasuk istilah-istilah seperti ‘playboy’ dan ‘hotties’,” jelas laporan tersebut.

Hal ini memungkinkan pembuat konten menyamarkan niat sebenarnya dari model-model tersebut, menghindari deteksi dan penghapusan otomatis.

Civitai, khususnya, menunjukkan peningkatan signifikan dalam jumlah model deepfake sejak peluncuran model Flux pada Agustus 2024. Ini menunjukkan bahwa model Flux, dengan peningkatan kualitas dan kemampuan penyesuaiannya, telah membuka era baru bagi individu yang ingin menghasilkan deepfake.

Seruan untuk Tindakan Lebih Lanjut

Penelitian ini menyoroti kesenjangan signifikan dalam regulasi dan penegakan kebijakan seputar model AI generatif. Para peneliti menyerukan tindakan yang lebih tegas kepada berbagai pemangku kepentingan.

Bagi platform seperti Hugging Face dan Civitai, didesak untuk proaktif menegakkan dan memperjelas Ketentuan Layanan mereka. Ini termasuk menghapus model yang melanggar aturan dan mempertimbangkan pengusiran pengguna yang berulang kali mengunggah konten terlarang.

Mereka juga harus mewajibkan persetujuan eksplisit dari individu yang digambarkan dan bukti persetujuan tersebut sebelum model di-host.

Para pengembang model AI didorong berinvestasi dalam mitigasi risiko, seperti penandaan air (watermarking) konten untuk membantu pelacakan penggunaan melanggar hukum, serta menerapkan filter yang lebih kuat terhadap konten seksual selama pelatihan awal model.

Saat ini, regulasi cenderung berfokus pada penyebaran gambar yang dianggap melanggar hukum, daripada pembuatan model itu sendiri. Para peneliti berpendapat regulator harus campur tangan dengan mengatur penggunaan model non-konsensual yang menargetkan individu.

Model yang menggunakan gambar non-konsensual yang dapat diidentifikasi, harus diatur ketat dengan sanksi yang jelas bagi pelanggar, sehingga mengurangi minat dan penggunaan model-model semacam ini.

“Masalah ini menunjukkan perlunya diskusi publik yang lebih luas dan menjamin intervensi dari pembuat model, situs hosting, dan regulator untuk mengatasi peningkatan NCII yang dihasilkan AI,” pungkas para peneliti.

Korea Selatan dan Tiongkok adalah contoh negara yang telah mengantisipasi deepfake. Korea Selatan termasuk negara pertama yang memberlakukan undang-undang khusus deepfake.

Mereka melarang pembuatan dan penyebaran video atau gambar palsu yang dibuat secara digital dengan tujuan seksual tanpa persetujuan. Pelanggaran dapat dikenai hukuman penjara dan denda yang berat.

Di Tiongkok, ada aturan yang mengharuskan penyedia layanan deepfake memverifikasi identitas pengguna dan meminta persetujuan saat menggunakan teknologi ini untuk mengubah gambar wajah atau suara. Peraturan ini juga menekankan pelabelan konten deepfake.

Meskipun studi ini memiliki keterbatasan, seperti hanya berfokus pada model yang tersedia untuk umum dan tidak secara langsung menghasilkan citra untuk alasan etis, temuan ini memberikan bukti empiris yang kuat tentang skala dan kemudahan aksesibilitas model deepfake non-konsensual.

Ini seruan penting bagi komunitas AI, regulator, dan masyarakat umum untuk mengatasi ancaman yang berkembang ini secara kolaboratif.

Photo by Maxim Mogilevskiy on Unsplash

Artikel lain sekategori:

Komentar Anda?



Exit mobile version