Deepfake di Indonesia: Saat Teknologi Melampaui Hukum

Ilustrasi :  Zahra

Penulis: Rafi Satrya Arvitto

Di tengah gemerlap kemajuan teknologi, muncul bayang-bayang gelap yang mulai mengancam kehidupan pribadi kita, deepfake. Teknologi berbasis kecerdasan buatan (AI) ini bisa membuat video atau suara seseorang seolah-olah benar-benar melakukan atau mengatakan sesuatu yang tidak pernah mereka lakukan. Dan yang lebih mengejutkan? Hukum kita belum siap menghadapinya.

Apa Itu Deepfake, dan Mengapa Harus Kita Khawatirkan?

Deepfake, yang berasal dari gabungan kata deep learning dan fake, memungkinkan manipulasi gambar, suara, atau video dengan kualitas yang begitu realistis hingga sulit dibedakan dari kenyataan. Awalnya dikembangkan untuk hiburan, teknologi ini kini sering disalahgunakan untuk tujuan kriminal. Bayangkan wajah Anda di video porno tanpa izin, suara Anda direkayasa untuk menipu keluarga agar mentransfer uang, atau rekaman palsu seorang pejabat yang memicu kepanikan publik. Ini bukan fiksi ilmiah melainkan telah terjadi di dunia nyata. Dan di Indonesia, korban-korban ini sering kali tidak punya perlindungan hukum yang memadai.

Fakta yang mencengangkan adalah bahwa pada 2019, lebih dari 14.000 video deepfake diunggah ke internet, dan 96 persennya adalah konten pornografi yang melibatkan perempuan tanpa sepengetahuan mereka. Ini bukan sekadar hoaks atau ujaran kebencian, ini adalah bentuk kekerasan berbasis gender di dunia digital (KGBO) yang merusak reputasi, mental, dan kehidupan sosial korban. Mereka mengalami trauma psikologis, kehilangan kepercayaan diri, bahkan kehilangan pekerjaan karena reputasi yang hancur.

UU ITE dan UU PDP: Payung Hukum yang Bolong dalam Menghadapi Deepfake

Lalu, bagaimana hukum Indonesia menyikapi ancaman ini? Kita memiliki dua payung hukum utama: Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) dan Undang-Undang Perlindungan Data Pribadi (UU PDP). Namun, ada masalah mendasar, tidak satu pun dari keduanya secara eksplisit mengatur tentang deepfake.

UU ITE memang memiliki pasal-pasal yang bisa digunakan secara umum, seperti Pasal 27 ayat (1) tentang konten yang melanggar kesusilaan, Pasal 27 ayat (3) tentang pencemaran nama baik, dan Pasal 28 tentang penyebaran hoaks. Namun, semua ini bersifat umum dan tidak dirancang khusus untuk menghadapi manipulasi teknologi AI. Akibatnya, penegakan hukum menjadi rentan terhadap multitafsir. Pelaku bisa lolos dengan dalih, "Itu kan tidak dilarang secara eksplisit."

Sementara itu, UU PDP memberikan dasar perlindungan data pribadi, termasuk hak untuk menarik persetujuan penggunaan data dan hak untuk dilupakan. Secara teori, korban bisa meminta penghapusan video deepfake yang menggunakan wajah atau suaranya. Namun secara praktik, prosesnya rumit. Tidak ada sanksi tegas, mekanisme pelaporan yang jelas, dan pelaku bisa dengan mudah menyembunyikan identitas menggunakan teknologi seperti VPN. Belum lagi, deteksi deepfake membutuhkan alat dan keahlian khusus yang belum dimiliki secara luas oleh aparat penegak hukum.

Mengapa Hukum Kita Tertinggal?

Kekosongan hukum ini menciptakan ketidakpastian. Tidak ada definisi resmi tentang deepfake, tidak ada larangan eksplisit, dan tidak ada sanksi yang proporsional. Padahal, teknologi deepfake terus berkembang pesat, bahkan bisa dibuat dengan aplikasi ponsel sederhana. Kualitasnya pun semakin sulit dibedakan dari konten asli. Di sisi lain, teknologi deteksi seperti Convolutional Neural Network (CNN) sudah mampu mengenali wajah palsu dengan akurasi di atas 90%, tetapi belum diadopsi secara sistematis dalam penegakan hukum.

Lebih dari sekadar masalah teknologi, deepfake adalah pelanggaran hak asasi manusia. Korban bukan hanya kehilangan privasi, tapi juga kebebasan untuk mengekspresikan diri, mobilitas sosial, dan rasa aman. Mereka menjadi korban kekerasan digital yang tidak terlihat, namun dampaknya sangat nyata. Ironisnya, sistem hukum yang seharusnya melindungi justru tidak memberi kepastian. Banyak korban memilih diam karena merasa tidak akan mendapat keadilan.

Solusi: Apa yang Harus Kita Lakukan?

Negara-negara maju mulai mengambil langkah serius. Amerika Serikat, melalui National Defense Authorization Act (NDAA), mewajibkan pelaporan penggunaan deepfake oleh pihak asing. Beberapa negara bagian seperti Texas dan California telah melarang penggunaan deepfake dalam kampanye politik. Uni Eropa, melalui GDPR, memberikan hak kuat kepada individu atas data pribadinya, termasuk hak untuk dilupakan. Indonesia perlu belajar dari langkah-langkah ini.

Untuk menghadapi ancaman deepfake, kita butuh tindakan konkret. Pertama, perlu revisi atau tambahan pasal dalam UU ITE dan UU PDP yang secara eksplisit melarang pembuatan, penyebaran, dan penyalahgunaan deepfake, lengkap dengan sanksi pidana dan denda. Kedua, Lembaga Perlindungan Data Pribadi (LPPDP) harus segera dibentuk secara independen dan diberi kewenangan penuh, seperti yang diamanatkan dalam UU PDP. Ketiga, peningkatan kapasitas aparat penegak hukum dalam deteksi dan penanganan kasus deepfake harus menjadi prioritas nasional.

Namun, hukum saja tidak cukup. Edukasi publik tentang bahaya dan dampak deepfake harus digencarkan. Literasi digital bukan lagi pilihan, tapi kebutuhan dasar. Masyarakat harus diajarkan cara memverifikasi informasi, melindungi data pribadi, dan melaporkan konten palsu. Tanpa kesadaran kolektif, regulasi akan sia-sia.

Penutup: Saatnya Hukum Berjalan Seiring dengan Teknologi

Deepfake adalah bayang-bayang dari kemajuan teknologi. Ia bisa menjadi alat kreativitas, tapi juga bisa menjadi senjata pemusnah reputasi dan privasi. Indonesia tidak bisa lagi mengandalkan undang-undang yang lahir di era feature phone untuk menghadapi ancaman di era artificial intelligence. Sudah saatnya kita membuat regulasi yang progresif, spesifik, dan manusiawi.

Karena di dunia digital, melindungi wajah seseorang sama pentingnya dengan melindungi nyawanya. Dan jika kita terus menunda, korban berikutnya bisa jadi Anda, saya, atau orang yang kita cintai.


Sumber:

Arvitto, R. S. . (2025). Implikasi Hukum Deepfake: Telaah terhadap UU ITE dan UU PDP . Jurnal Ilmiah Hukum Dan Hak Asasi Manusia, 4(2), 73–82. https://doi.org/10.35912/jihham.v4i2.3937

Dokku, S. R., & Kandula, D. (2021). A study on issues and challenges of information technology act 2000 in India. Annals of Justice and Humanity, 1(1), 39–49. https://doi.org/10.33545/26179210.2019.v2.i1a.16

Europol. (2022). Facing reality? : law enforcement and the challenge of deepfakes : an observatory report from the Europol innovation lab. Publications Office of the European Union. https://data.europa.eu/doi/10.2813/08370

Nwosu, C. C., Obalum, D. C., & Ananti, M. O. (2024). Artificial intelligence in public service and governance in Nigeria. Journal of Governance and Accountability Studies (JGAS), 4(2), 109–120.

Somers, M. (2020). Deepfakes, explained. MIT Sloan. mitsloan.mit.edu/ideas-made-tomatter/deepfakes-explained

Song, D. (2019). A Short History of Deepfakes. Medium. medium.com/@songda/a-short-history-ofdeepfakes-604ac7be6016

Spivak, R. (2019). Deepfakes: The newest way to commit one of the oldest crimes. George Town Technology Review, 3.2, 340. georgetownlawtechreview.org/deepfakes-the-newest-way-tocommit-one-of-the-oldest-crimes/GLTR-05-2019/

Amelia, Y. F., Kaimuddin, A., & Ashsyarof, H. L. (2024). Pertanggungjawaban Pidana Pelaku Terhadap Korban Penyalahgunaan Artificial Intelligence Deepfake Menurut Hukum Positif Indonesia. Dinamika Jurnal Ilmiah Hukum, 30(1), 9676. jim.unisma.ac.id/index.php/jdh/article/view/23708 

0 Komentar

Literatika FH UNESA

Bergabung bersama kami!