Di tengah gemerlap kemajuan teknologi, muncul bayang-bayang gelap yang mulai mengancam kehidupan pribadi kita, deepfake. Teknologi berbasis kecerdasan buatan (AI) ini bisa membuat video atau suara seseorang seolah-olah benar-benar melakukan atau mengatakan sesuatu yang tidak pernah mereka lakukan. Dan yang lebih mengejutkan? Hukum kita belum siap menghadapinya.
Apa Itu Deepfake, dan Mengapa Harus Kita Khawatirkan?
Deepfake, yang berasal dari gabungan kata deep learning
dan fake, memungkinkan manipulasi gambar, suara, atau video dengan
kualitas yang begitu realistis hingga sulit dibedakan dari kenyataan. Awalnya
dikembangkan untuk hiburan, teknologi ini kini sering disalahgunakan untuk
tujuan kriminal. Bayangkan wajah Anda di video porno tanpa izin, suara Anda
direkayasa untuk menipu keluarga agar mentransfer uang, atau rekaman palsu
seorang pejabat yang memicu kepanikan publik. Ini bukan fiksi ilmiah melainkan telah terjadi di dunia nyata. Dan di Indonesia, korban-korban ini sering kali tidak punya perlindungan
hukum yang memadai.
Fakta yang mencengangkan adalah bahwa pada 2019, lebih dari 14.000 video deepfake diunggah ke internet, dan 96 persennya adalah konten pornografi yang melibatkan perempuan tanpa sepengetahuan mereka. Ini bukan sekadar hoaks atau ujaran kebencian, ini adalah bentuk kekerasan berbasis gender di dunia digital (KGBO) yang merusak reputasi, mental, dan kehidupan sosial korban. Mereka mengalami trauma psikologis, kehilangan kepercayaan diri, bahkan kehilangan pekerjaan karena reputasi yang hancur.
UU ITE dan UU PDP: Payung Hukum yang Bolong dalam Menghadapi Deepfake
Lalu, bagaimana hukum Indonesia menyikapi ancaman ini? Kita memiliki dua payung hukum utama: Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) dan Undang-Undang Perlindungan Data Pribadi (UU PDP). Namun, ada masalah mendasar, tidak satu pun dari keduanya secara eksplisit mengatur tentang deepfake.
UU ITE memang memiliki pasal-pasal yang bisa digunakan secara umum, seperti Pasal 27 ayat (1) tentang konten yang melanggar kesusilaan, Pasal 27 ayat (3) tentang pencemaran nama baik, dan Pasal 28 tentang penyebaran hoaks. Namun, semua ini bersifat umum dan tidak dirancang khusus untuk menghadapi manipulasi teknologi AI. Akibatnya, penegakan hukum menjadi rentan terhadap multitafsir. Pelaku bisa lolos dengan dalih, "Itu kan tidak dilarang secara eksplisit."
Sementara itu, UU PDP memberikan dasar perlindungan data
pribadi, termasuk hak untuk menarik persetujuan penggunaan data dan hak untuk
dilupakan. Secara teori, korban bisa meminta penghapusan video deepfake yang
menggunakan wajah atau suaranya. Namun secara praktik, prosesnya rumit. Tidak
ada sanksi tegas, mekanisme pelaporan yang jelas, dan pelaku bisa dengan mudah
menyembunyikan identitas menggunakan teknologi seperti VPN. Belum lagi, deteksi
deepfake membutuhkan alat dan keahlian khusus yang belum dimiliki secara luas
oleh aparat penegak hukum.
Mengapa Hukum Kita Tertinggal?
Kekosongan hukum ini menciptakan ketidakpastian. Tidak ada definisi resmi tentang deepfake, tidak ada larangan eksplisit, dan tidak ada sanksi yang proporsional. Padahal, teknologi deepfake terus berkembang pesat, bahkan bisa dibuat dengan aplikasi ponsel sederhana. Kualitasnya pun semakin sulit dibedakan dari konten asli. Di sisi lain, teknologi deteksi seperti Convolutional Neural Network (CNN) sudah mampu mengenali wajah palsu dengan akurasi di atas 90%, tetapi belum diadopsi secara sistematis dalam penegakan hukum.
Lebih dari sekadar masalah teknologi, deepfake adalah pelanggaran hak asasi manusia. Korban bukan hanya kehilangan privasi, tapi juga kebebasan untuk mengekspresikan diri, mobilitas sosial, dan rasa aman. Mereka menjadi korban kekerasan digital yang tidak terlihat, namun dampaknya sangat nyata. Ironisnya, sistem hukum yang seharusnya melindungi justru tidak memberi kepastian. Banyak korban memilih diam karena merasa tidak akan mendapat keadilan.
Solusi: Apa yang Harus Kita Lakukan?
Negara-negara maju mulai mengambil langkah serius. Amerika Serikat, melalui National Defense Authorization Act (NDAA), mewajibkan pelaporan penggunaan deepfake oleh pihak asing. Beberapa negara bagian seperti Texas dan California telah melarang penggunaan deepfake dalam kampanye politik. Uni Eropa, melalui GDPR, memberikan hak kuat kepada individu atas data pribadinya, termasuk hak untuk dilupakan. Indonesia perlu belajar dari langkah-langkah ini.
Untuk menghadapi ancaman deepfake, kita butuh tindakan konkret. Pertama, perlu revisi atau tambahan pasal dalam UU ITE dan UU PDP yang secara eksplisit melarang pembuatan, penyebaran, dan penyalahgunaan deepfake, lengkap dengan sanksi pidana dan denda. Kedua, Lembaga Perlindungan Data Pribadi (LPPDP) harus segera dibentuk secara independen dan diberi kewenangan penuh, seperti yang diamanatkan dalam UU PDP. Ketiga, peningkatan kapasitas aparat penegak hukum dalam deteksi dan penanganan kasus deepfake harus menjadi prioritas nasional.
Namun, hukum saja tidak cukup. Edukasi publik tentang bahaya dan dampak deepfake harus digencarkan. Literasi digital bukan lagi pilihan, tapi kebutuhan dasar. Masyarakat harus diajarkan cara memverifikasi informasi, melindungi data pribadi, dan melaporkan konten palsu. Tanpa kesadaran kolektif, regulasi akan sia-sia.
Penutup: Saatnya Hukum Berjalan Seiring dengan Teknologi
Deepfake adalah bayang-bayang dari kemajuan teknologi. Ia bisa menjadi alat kreativitas, tapi juga bisa menjadi senjata pemusnah reputasi dan privasi. Indonesia tidak bisa lagi mengandalkan undang-undang yang lahir di era feature phone untuk menghadapi ancaman di era artificial intelligence. Sudah saatnya kita membuat regulasi yang progresif, spesifik, dan manusiawi.
Karena di dunia digital, melindungi wajah seseorang sama pentingnya dengan melindungi nyawanya. Dan jika kita terus menunda, korban berikutnya bisa jadi Anda, saya, atau orang yang kita cintai.
Sumber:
Arvitto, R. S. . (2025). Implikasi Hukum Deepfake: Telaah
terhadap UU ITE dan UU PDP . Jurnal Ilmiah Hukum Dan Hak Asasi Manusia, 4(2),
73–82. https://doi.org/10.35912/jihham.v4i2.3937
Dokku, S. R., & Kandula, D. (2021). A study on issues and challenges of information technology act 2000 in India. Annals of Justice and Humanity, 1(1), 39–49. https://doi.org/10.33545/26179210.2019.v2.i1a.16
Europol. (2022). Facing reality? : law enforcement and the challenge of deepfakes : an observatory report from the Europol innovation lab. Publications Office of the European Union. https://data.europa.eu/doi/10.2813/08370
Nwosu, C. C., Obalum, D. C., & Ananti, M. O. (2024). Artificial intelligence in public service and governance in Nigeria. Journal of Governance and Accountability Studies (JGAS), 4(2), 109–120.
Somers, M. (2020). Deepfakes, explained. MIT Sloan. mitsloan.mit.edu/ideas-made-tomatter/deepfakes-explained
Song, D. (2019). A Short History of Deepfakes. Medium. medium.com/@songda/a-short-history-ofdeepfakes-604ac7be6016
Spivak, R. (2019). Deepfakes: The newest way to commit one of the oldest crimes. George Town Technology Review, 3.2, 340. georgetownlawtechreview.org/deepfakes-the-newest-way-tocommit-one-of-the-oldest-crimes/GLTR-05-2019/
Amelia, Y. F., Kaimuddin, A., & Ashsyarof, H. L. (2024). Pertanggungjawaban Pidana Pelaku Terhadap Korban Penyalahgunaan Artificial Intelligence Deepfake Menurut Hukum Positif Indonesia. Dinamika Jurnal Ilmiah Hukum, 30(1), 9676. jim.unisma.ac.id/index.php/jdh/article/view/23708
0 Komentar