Mengatasi Ancaman Pornografi Deepfake: StopNCII Lindungi Korban dengan Cepat

Human Interest
14.08.23

Mengatasi Ancaman Pornografi Deepfake: StopNCII Lindungi Korban dengan Cepat

Solusi privasi dengan mengunggah gambar asli dan yang dimanipulasi untuk dihapus dari platform online.

by Whiteboard Journal

 

Foto: Louis Galvez/Unsplash

Ancaman pornografi deepfake yang merugikan korban tanpa persetujuan merupakan masalah serius. Terlebih dengan teknologi generatif gambar hyper-realistik seperti Stable Diffusion dan Midjourney, ancaman ini semakin meningkat. Sayangnya, hingga saat ini, undang-undang yang tegas untuk melindungi korban belum ada. Namun, ada solusi cepat dan mudah untuk menghadapi situasi ini melalui StopNCII, yang merupakan singkatan dari Stop Non-Consensual Intimate Image Abuse.

Dalam skenario di mana seseorang memanipulasi gambar Anda menjadi foto telanjang menggunakan kecerdasan buatan (AI) atau Photoshop, Anda dapat mengunjungi StopNCII untuk mengatasi situasi ini dan menjaga privasi Anda. Anda dapat mengunggah versi asli dan yang dimanipulasi dari foto tersebut. Gambar yang dimanipulasi akan dihapus dari semua platform online, dan Anda tidak perlu berkomunikasi langsung—privasi Anda akan sepenuhnya terjaga.

Bagaimana Cara Kerjanya?

Pada tahun 2021, Meta bersama 50 LSM global membantu UK Revenge Porn Helpline meluncurkan StopNCII.org. Ini melawan pembagian dan penyebaran gambar pribadi secara online tanpa persetujuan, memungkinkan pengguna worldwide untuk melindungi gambar intim di platform teknologi dengan mengisolasikannya di perangkat demi keamanan dan privasi.

Alat ini menggunakan teknologi penghasil “hash” (atau digital fingerprint) canggih yang memberikan kode numerik unik per gambar, menciptakan a literal digital fingerprint yang aman. Perusahaan teknologi yang terlibat menggunakan hash ini untuk mendeteksi jika adanya pembagian gambar yang dimaksud di platform mereka.

Perusahaan yang berpartisipasi menggunakan hash dari StopNCII.org untuk mengidentifikasi gambar yang dibagikan di platform mereka, memastikan gambar asli tetap ada di perangkat pengguna—hanya hash yang dibagikan, bukan gambar aslinya, yang mencegah penyebaran konten sensitif dan menjaga kepemilikan.

StopNCII.org membantu orang dewasa di atas 18 tahun yang khawatir tentang berbagi gambar intim tanpa persetujuan. Untuk yang di bawah 18 tahun, institusi alternatif seperti National Center for Missing & Exploited Children (NCMEC) mampu memberikan dukungan yang sesuai.

Ancaman Berkelanjutan Deepfake

Menurut laporan, 96% video deepfake tanpa persetujuan online melibatkan perempuan, terutama selebriti, yang diubah menjadi konten seksual tanpa izin mereka.

“Peningkatan pornografi AI dan deepfake pornografi meremehkan penggunaan citra wanita tanpa persetujuan,” kata Sophie Maddocks, peneliti di University of Pennsylvania yang memantau pelecehan berbasis citra.

Emma Watson, Kristen Bell, Natalie Portman, Taylor Swift, dan aktor lainnya telah mengalami ini. Meskipun demikian, hal ini tidak terbatas pada selebriti.

Jurnalis India Rana Ayyub mengungkapkan bagaimana ia menjadi korban pornografi deepfake setelah berbicara tentang kasus pemerkosaan geng Kathua pada tahun 2018. Streamer Twitch dari Amerika Serikat QTCinderella menjadi korban pornografi deepfake karena ia dilecehkan oleh deepfake yang menggambarkan dirinya.whiteboardjournal, logo