December 9, 2025
Issues Politics & Society Safe Space

Ketika Wajah Jadi Komoditas: Kekerasan Digital, AI, dan PR Perlindungan Kita

Sebut saja namanya Frila (15), siswi SMP di Kota Bandung. Suatu hari ia tiba-tiba menolak berangkat sekolah. Bukan karena nilai jelek, bukan karena dimarahi guru, tapi karena satu hal: wajahnya tersebar di gawai teman-temannya, menempel di tubuh telanjang perempuan dewasa, hasil editan berbasis kecerdasan buatan (AI). Foto yang dipakai adalah potret Frila saat ia memenangkan […]

  • December 9, 2025
  • 6 min read
  • 69 Views
Ketika Wajah Jadi Komoditas: Kekerasan Digital, AI, dan PR Perlindungan Kita

Sebut saja namanya Frila (15), siswi SMP di Kota Bandung. Suatu hari ia tiba-tiba menolak berangkat sekolah. Bukan karena nilai jelek, bukan karena dimarahi guru, tapi karena satu hal: wajahnya tersebar di gawai teman-temannya, menempel di tubuh telanjang perempuan dewasa, hasil editan berbasis kecerdasan buatan (AI).

Foto yang dipakai adalah potret Frila saat ia memenangkan kompetisi basket tingkat kota. Momen yang seharusnya membanggakan, justru runtuh jadi sumber malu dan trauma. Beberapa teman sekolahnya “iseng” mengedit foto itu dengan aplikasi AI, lalu menyebarkannya. Di mata mereka, itu hanya bahan bercandaan. Di tubuh dan ingatan Frila, itu kekerasan.

Kasus seperti Frila adalah ilustrasi paling nyata tantangan kekerasan berbasis gender di ruang digital Indonesia hari ini. Kekerasan tidak lagi terbatas pada lorong sekolah, rumah, atau kantor. Ia bergerak di layar, terjadi tanpa batas usia, berulang setiap hari, dan belum punya mekanisme penanganan yang benar-benar tuntas.

Baca Juga: Melawan Norma Pemicu Kekerasan Berbasis Gender

KBGO melonjak, proteksi minim

Data nasional menunjukkan bahwa kasus seperti ini bukan pengecualian. Komisi Nasional Anti Kekerasan Terhadap Perempuan (Komnas Perempuan) mencatat 445.502 kasus kekerasan terhadap perempuan sepanjang 2024, naik 9,77 persen dari tahun sebelumnya. Yang paling mencolok adalah lonjakan 40,8 persen pada Kekerasan Berbasis Gender Online (KBGO). Bentuknya beragam, mulai dari ancaman seksual daring, pelecehan di media sosial, dan penyebaran video intim, sampai eksploitasi seksual, pelanggaran privasi, dan penipuan yang memanfaatkan identitas perempuan dan anak.

Lembaga SAFEnet, melalui pemantauan digital pada triwulan III 2025, mencatat 605 insiden KBGO (578 aduan dan 27 dari pemantauan media). Dalam sembilan bulan pertama 2025 saja, total laporan KBGO yang terdokumentasi mencapai 1.698 kasus—rata-rata lebih dari enam kejadian setiap hari. Kekerasan di dunia maya bukan lagi “kasus unik”, melainkan bagian dari narasi harian internet Indonesia.

Di lingkungan sekolah, pola KBGO punya ciri khas sendiri. Penyebaran gambar intim dan deepfake eksplisit sering bermula dari grup pertemanan, dengan pelaku dan saksi sama-sama masih di bawah umur. Banyak dari mereka menganggap mengedit foto teman dengan AI sebagai lelucon, tanpa memahami dampak hukum dan psikologisnya. Sementara korban, sering kali terlalu takut atau malu untuk bercerita bahkan kepada keluarga sendiri.

Apa yang dialami Frila bisa dikategorikan sebagai non-consensual dissemination of intimate images (NCII), atau penyebaran konten bernuansa seksual tanpa persetujuan orang yang wajah atau tubuhnya dipakai. NCII adalah istilah payung yang mencakup pemerasan seksual, penyebaran foto/video intim, hingga manipulasi gambar berbasis AI seperti deepfake.

Selama ini, istilah “revenge porn” sering dipakai, tetapi semakin dianggap problematis. “Revenge” seolah memberi kesan korban pantas menerima “balas dendam”, sementara “porn” mengandung nuansa seolah konten itu dibuat untuk hiburan. Istilah NCII membantu kita menggeser fokus: dari menilai moralitas korban menjadi menyoroti tindakan pelaku, rantai distribusi konten, dan tanggung jawab platform serta negara.

Fenomena NCII dan intimate image abuse berbasis AI di kalangan pelajar memperlihatkan pola baru kekerasan digital: wajah remaja ditempel di tubuh orang lain, disebarkan tanpa izin, dan meninggalkan luka yang sulit dihapus. Kebijakan publik kita masih cenderung menganggap kekerasan terjadi di ruang fisik, dengan pelaku dewasa dan bukti yang kasat mata. Padahal, di ruang digital, kekerasan bisa diproduksi dalam hitungan detik, disebar lintas platform, dan nyaris mustahil ditarik kembali seluruhnya.

Secara hukum, Indonesia sebenarnya sudah punya pijakan. Undang-Undang No. 12 Tahun 2022 tentang Tindak Pidana Kekerasan Seksual (UU TPKS) mewajibkan negara menghapus konten digital bermuatan kekerasan seksual, mempercepat penanganan dan pemulihan korban, serta memastikan penegakan hukum yang responsif gender.

Namun, perintah takedown hanyalah pemadaman di hilir. Konten bisa dihapus, tapi bagaimana dengan pelaku? Dalam kasus NCII berbasis AI, persoalannya bukan hanya gambar yang beredar, tapi juga siapa yang pertama mengunggah, bagaimana rantai sebarannya, seberapa anonim pelaku, dan bagaimana jejak digitalnya bisa dilacak.

Tanpa sistem yang terintegrasi antara kepolisian, sekolah, platform digital, dan database nasional, perintah takedown seperti memotong ujung api tanpa memadamkan sumbernya. Sementara korban dan pendamping tidak hanya ingin gambar hilang dari satu tautan, tetapi juga pemulihan martabat di ruang digital dan penelusuran pelaku yang bertanggung jawab.

Baca Juga: Dicap Lebih Lemah, Anak dan Perempuan Muda Rentan Alami Pelecehan Daring

Ketika teknologi berlari, perlindungan tertinggal

Komnas Perempuan menekankan bahwa teknologi yang sama yang dipakai untuk melukai, sebenarnya bisa dipakai untuk melindungi. AI dapat dimanfaatkan untuk mendeteksi konten kekerasan, memetakan pola KBGO, dan menganalisis risiko digital. Di beberapa negara, sistem moderasi dan deteksi dini berbasis AI sudah digunakan untuk mengidentifikasi, menandai, dan membatasi sirkulasi konten berbahaya.

Namun di Indonesia, AI masih lebih sering digunakan untuk tujuan komersial dan kreativitas—filter cantik, aplikasi hiburan, iklan yang dipersonalisasi—ketimbang sebagai infrastruktur perlindungan korban. Di ranah pendidikan dan penegakan hukum, pemanfaatan AI untuk deteksi dini NCII dan kekerasan digital masih jauh dari memadai.

Akibatnya, AI-based intimate abuse tumbuh dalam ruang nyaris tanpa pagar: pelaku dapat memproduksi dan menyebarkan gambar fiktif eksplisit, sementara korban dan pendamping korban tidak mendapat penanganan segera.

Akibatnya, AI-based intimate abuse tumbuh di ruang nyaris tanpa pagar. Siapa pun yang punya gawai dan koneksi internet dapat memproduksi dan menyebarkan gambar eksplisit palsu. Korban, sering kali perempuan dan anak, terbangun dalam realitas di mana wajah mereka bisa dipakai siapa saja, kapan saja, tanpa izin.

Hambatan terbesar dalam kasus kekerasan digital sering kali bukan pada sulitnya mengakses teknologi pelaporan, tetapi pada ketakutan sosial. Bagi korban di bawah umur, foto mereka mungkin menyebar lebih cepat daripada pengetahuan orang dewasa tentang consent dan NCII. Mereka menjadi bahan gosip, ejekan, dan perundungan, sementara pelaku bersembunyi di balik anonim akun atau alasan “hanya bercanda”.

Penelitian psikologi anak menunjukkan bahwa intimate image abuse berdampak pada rasa percaya diri, relasi sosial, dan motivasi belajar. Korban cenderung menarik diri, menurun prestasi sekolahnya, bahkan berisiko putus sekolah. Di laporan Komisi Perlindungan Anak Indonesia (KPAI) dan SAFEnet, dampak-dampak ini sudah tercatat, bukan sekadar dugaan.

Dalam konteks kampanye 16 Hari Anti Kekerasan terhadap Perempuan (16 HAKTP), isu kekerasan digital seharusnya tidak hanya muncul sebagai tema tahunan, tapi sebagai agenda perlindungan yang terus-menerus. Negara tidak cukup hanya “ikut kampanye”, tetapi perlu memetakan bahaya dan kerentanan secara sistematis, terutama di ruang-ruang yang dekat dengan anak: sekolah, rumah, dan layar yang mereka pakai setiap hari.

Komisioner Chatarina Pancer Istiyani mengingatkan, “Teknologi harus diarahkan mencegah kekerasan, menyelamatkan dan memulihkan korban. Bukan memfasilitasi untuk melukai perempuan.” Sementara itu, komisioner Daden Sukendar mendorong pentingnya sinergi database perlindungan digital, SOP pelaporan ramah korban berbasis AI di Kementerian/Lembaga, dan alokasi anggaran perlindungan digital yang responsif gender.

Kekerasan digital berbasis komodifikasi foto tidak bisa ditangani dengan logika “satu kasus, satu konferensi pers, satu takedown.” Ia adalah rangkaian: dari budaya yang menertawakan korban, hukum yang tertinggal dari praktik, hingga teknologi yang dibiarkan berkembang tanpa pagar etis.

Kemajuan teknologi di Indonesia seharusnya diikuti oleh kemajuan perlindungan, bukan hanya kemajuan komersialisasi. Jika wajah perempuan dan anak sudah menjadi komoditas yang bergerak cepat di internet, maka kebijakan untuk melindungi martabat digital mereka harus bergerak setidaknya sama cepat. Tanpa intervensi struktural, internet bukan hanya akan mereplikasi konten, tapi juga mereplikasi kekerasan itu sendiri.

Kampanye 16 HAKTP akan selalu penting untuk menyalakan kesadaran bersama. Tapi pada akhirnya, kampanye baru benar-benar bermakna ketika perlindungan tidak lagi menunggu momentum seremoni tahunan—melainkan hadir sebagai mekanisme harian yang konkret, berbasis teknologi, dan sungguh-sungguh berpihak pada korban.

Foggy FF adalah esais dan penulis fiksi. Ia tinggal di Bandung dan aktif berkampanye soal kesehatan mental dan pemberdayaan perempuan.

About Author

Foggy FF

Foggy FF adalah novelis dan cerpenis, aktif berkampanye tentang isu kesehatan mental dan pemberdayaan perempuan.