Election 2024 Issues Opini

‘Deepfake’ di Pemilu 2024: ‘When Seeing is (No Longer) Believing’

Apa yang bisa kita lakukan saat ‘deepfake’ merajalela di tahun Pemilu sekarang?

Avatar
  • February 7, 2024
  • 6 min read
  • 911 Views
‘Deepfake’ di Pemilu 2024: ‘When Seeing is (No Longer) Believing’

Tinggal menghitung hari sebelum jutaan warga Indonesia melaksanakan Pemilihan Umum (Pemilu) serentak, (14/2). Serupa dengan Pemilu yang sudah-sudah, topik hoaks belakangan semakin ramai diperbincangkan. Bahkan, dalam arena debat calon presiden yang sudah digelar, topik itu kembali didedah oleh para calon pemimpin. 

Wajar saja, hoaks yang berupa misinformasi, disinformasi, dan malinformasi, biasanya memang jadi polutan di tahun Pemilu. Tak cuma mencemari fakta tapi juga rentan memicu polarisasi warga. Padahal, hak atas Pemilu yang aman, adil, dan bebas adalah hak kita semua. 

 

 

Ironisnya, hoaks kini semakin canggih setelah didukung teknologi kecerdasan buatan, seperti deepfake. Pertarungan melawan hoaks pun semakin menanjak. 

Apa itu Deepfake? 

Chesney dan Citron dalam “Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security” (2018) meramalkan pergeseran yang menarik dari fake news menuju deepfake news di masa depan. Mereka mendefinisikan deepfake sebagai “rangkaian pemalsuan digital yang menakjubkan pada gambar, video, dan audio.” 

Dengan begitu, deepfake diakui sebagai komponen integral dari manipulasi audio-visual, melibatkan tidak hanya metode manipulasi tingkat tinggi berbasis kecerdasan buatan, tetapi juga strategi manipulasi konvensional. Contohnya, mengubah kontrol kecepatan (playback speed), atau melakukan pemotongan dan/atau merekontekstualisasi, yang akrab kita sebut cheapfake

Perbedaan mendasar antara deepfake dan cheapfake terletak pada keahlian untuk mengonfirmasi apakah gambar, video, atau audio telah menjalani proses manipulasi. Jika identifikasi konten cheapfake mungkin dianggap sederhana, sebaliknya, mendeteksi keberadaan deepfake jadi tantangan luar biasa. Saat ini, kemampuan kita untuk menciptakan konten deepfake tumbuh dengan cepat, sedangkan kemampuan kita untuk mendeteksinya masih terus tertinggal. 

Pepatah “When Seeing is Believing” (Ketika Melihat Berarti Percaya) dalam hal ini jadi terasa relevan. Deepfake telah mengguncang keyakinan kita terhadap kebenaran visual. Pada masa lalu, melihat gambar atau video sering dianggap sebagai bentuk bukti yang tak terbantahkan. Namun, hadirnya deepfake mengajarkan kita untuk bersikap lebih waspada terhadap keaslian informasi yang disajikan oleh indera penglihatan.  

Dalam dunia yang semakin dipenuhi dengan manipulasi digital yang mengecoh, pepatah tersebut memanggil kita untuk tidak sekadar memercayai apa yang terlihat secara kasat mata. Deepfake, dengan segala kemampuannya dalam menciptakan ilusi yang sangat meyakinkan, mengingatkan kita bahwa kebenaran sering kali lebih kompleks daripada yang tampak di permukaan.  

Baca juga: Ancaman Deepfake: KBGO dan Gerak Perempuan yang Makin Rentan

Deepfake Cemari Pemilu 

Uniknya, deepfake sendiri merupakan fenomena jamak yang terjadi di berbagai negara di dunia. Yang menjadi korban deepfake pun beragam, dari politisi, aktivis, bahkan wartawan. Awal 2024 lalu misalnya, Ruth Cabal, penyiar berita CNN Filipina menjadi salah satu korbannya. Ia bercerita, video siaran beritanya telah direkayasa sedemikian rupa dengan teknologi tersebut. 

Jauh sebelum itu, pada Maret 2021, pemerintahan militer Myanmar melemparkan tuduhan korupsi baru terhadap Aung San Suu Kyi. Tuduhan ini terutama didasarkan pada pengakuan politisi yang ditahan dalam sebuah video. Ini sontak memunculkan kecurigaan luas bahwa video tersebut mungkin merupakan deepfake. Kejadian ini memperlihatkan bagaimana penyalahgunaan deepfake dapat berkontribusi pada erosi kebenaran, bahkan yang lebih parah, membuka ruang bagi otoritarianisme untuk terus tumbuh.  

Di Indonesia, kehadiran deepfake semakin merajalela di berbagai lini masa media sosial. Di tahun Pemilu, deepfake yang marak di negeri ini bisa membahayakan demokrasi kita, membunuh karakter orang, atau memanipulasi citra. 

Salah satu contoh deepfake yang mencuat baru-baru ini adalah video dari caleg Partai Golkar yang menggambarkan sosok Soeharto seolah-olah “bangkit kembali” untuk mendukung kampanye Partai Beringin itu 

Selain itu, saya menemukan video-video deepfake di platform TikTok yang menampilkan dua aktivis HAM, Munir dan Marsinah, yang tampaknya menceritakan kasus pembunuhan yang menimpa mereka. Video deepfake semacam ini bisa dianggap sebagai contoh penggunaan yang berisiko rendah karena dua alasan. 

Pertama, tujuan video tersebut adalah untuk memberikan edukasi kepada publik. Para penonton akan dengan jelas menyadari video tersebut merupakan hasil manipulasi, mengingat Munir dan Marsinah secara eksplisit menyatakan dalam video TikTok bahwa mereka telah meninggal akibat pembunuhan. Kedua, melihat situasi di Indonesia yang cenderung represif terhadap suara sumbang, video deepfake macam ini dapat dianggap sebagai sarana aman untuk menyampaikan pesan. 

Meski berisiko rendah, pemanfaatan teknologi deepfake harus kita kritisi. Apalagi jika digunakan untuk tujuan mengemis suara rakyat. Contohnya kita lihat deepfake yang populer mempertontonkan video Jokowi yang fasih berpidato dalam Bahasa Mandarin dan Prabowo yang mendadak jago Bahasa Arab. 

Baca juga: ‘Deepfake’ Bertebaran di Internet, Bagaimana Bedakan Fakta dari Fiksi AI? 

Perempuan Paling Rentan 

Lahir dari masyarakat yang misoginis, teknologi deepfake juga punya dampak serius pada perempuan. Di ranah politik, teknologi deepfake digunakan untuk mengobjektifikasi secara seksual dan mendiskreditkan kredibilitas politisi perempuan. Ini menimpa politisi perempuan Irlandia Utara, Cara Hunter dan Diana Forsythe, pada 2022. Video deepfake konten intim non-konsensual keduanya disebarluaskan secara daring saat keduanya maju di Pemilu. 

Tak cuma menyerang politisi perempuan, deepfake juga disalahgunakan untuk membungkam aktivis hak asasi manusia (HAM) perempuan, Rana Ayyub. Ia terbilang vokal mengomentari kasus pemerkosaan yang terjadi di India. Karena kritik-kritiknya itu, video deepfake konten intim non-konsensual yang menampilkan dirinya disebar di media sosial bersama dengan data pribadi. Hal ini menyebabkan Rana harus menjalani rawat inap di rumah sakit akibat anxiety dan palpitasi jantung.  

Kasus-kasus video deepfake yang berdimensi politik ini kemudian menggambarkan bagaimana teknologi ini dapat digunakan untuk memperburuk objektifikasi seksual perempuan di ranah daring. 

Baca juga: Ancaman Deepfake: KBGO dan Gerak Perempuan yang Makin Rentan

Kita Butuh Regulasi dan Penegakan yang Tegas 

Kini tersedia beberapa kerangka hukum yang dapat digunakan oleh korban atau penyintas deepfake di Indonesia. Selain Undang-Undang Informasi dan Transaksi Elektronik (UU ITE), ada juga Undang-Undang Perlindungan Data Pribadi (UU PDP). UU ini punya semangat melindungi hak privasi warga, dengan mengatur sejumlah hak sebagai ‘subjek data’ untuk mengelola ‘data pribadi’ yang dimilikinya. 

Beberapa hak yang dapat dimanfaatkan oleh korban atau penyintas deepfake, yakni hak atas informasi, menghapus, memperbaiki, serta menunda dan membatasi pemrosesan data pribadi. Hak-hak ini menjadi relevan karena video atau gambar deepfake yang menampilkan wajah korban atau penyintas masuk dalam cakupan data pribadi. Karena itu, mereka dapat menggunakan hak-hak ini terhadap platform media sosial untuk menghentikan penyebaran konten deepfake

Meskipun UU ini sudah cukup baik, tapi upaya untuk menghentikan laju penyebaran konten deepfake tak cukup di situ saja. Perlu ada regulasi yang mengatur di level hulu, maksudnya teknologi AI dan penindakan terhadap platform-platform di jagat maya. Hingga solusi yang memadai hadir untuk meredam dampak buruk deepfake, sayangnya kita harus mulai menyadari bahwa seeing is no longer believing.  

Alia Yofira adalah bagian dari PurpleCode Collective, sebuah kolektif feminis yang fokus pada isu-isu seputar gender dan teknologi di Indonesia. Sebelumnya, Alia menulis mengenai tantangan regulasi terkait political deepfake sebagai topik disertasi magister hukumnya. 

Ilustrasi oleh: Karina Tungari



#waveforequality


Avatar
About Author

Alia Yofira