Identitas Wanita di India Dicuri Untuk Konten AI Erotis. Pada tanggal 12 Juni 2025, polisi India menangkap Pratim Bora di Tinsukia, Assam, atas adanya kasus penipuan deepfake yang mencuri seorang identitas ibu rumah tangga dan membuat akun Instafram bernama Babydolll Archi. Akun ini, yang mengumpulkan 1,4 juta pengikut, memposting konten erotis berbasis AI, termasuk video tarian menggoda dan foto bersama bintang film dewasa. Kasus ini memicu kemarahan publik dan menyoroti bahaya penyalahgunaan teknologi AI. Siapa wanita yang identitasnya dicuri, apakah AI berpotensi berbahaya, dan apa langkah pemerintah India? Berikut ulasannya! BERITA LAINNYA
Siapakah Sesosok Wanita Yang Identitasnya Dicuri?
Korban merupakan seseorang yang disebut sebagai Sanchi (nama samaran untuk melindungi identitasnya) merupakan seorang ibu rumah tangga yang berusia 30-an dari Dibrugarh, Assam. Ia tidak aktif di media sosial dan baru mengetahui penyalahgunaan identitasnya setelah akun Babydoll Archi viral pada April 2025. Wajahnya digunakan untuk menciptakan konten deepfake, termasuk video tarian dalam sari merah dan foto bersama selebritas dewasa. Sanchi dan Pratim Bora, pelaku, memiliki konflik pribadi di masa lalu, yang diduga menjadi motif “balas dendam” Bora. Sebagai insinyur mesin dan penggemar AI otodidak, Bora memanfaatkan foto pribadi Sanchi untuk membangun profil palsu sejak 2020, menggunakan alat seperti ChatGPT dan Dzine. Akun tersebut dimonetisasi, menghasilkan sekitar 1 juta rupee, termasuk 300.000 rupee dalam lima hari sebelum penangkapan. Sanchi kini menjalani konseling karena trauma berat akibat kasus ini.
Apakah AI Akan Berbahaya di Masa Depan?
Kasus ini menunjukkan bahwa adanya potensi berbahaya teknologi AI, terutama deepfake yang bisa dipakai untuk memalsukan identitas orang dengan realistis. AI generatif memungkinkan pembuatan konten eksplisit tanpa persetujuan, merusak reputasi dan privasi individu. Selain dampak personal, deepfake dapat menyebarkan misinformasi, seperti memanipulasi video tokoh publik untuk tujuan politik atau kriminal. Di India, kasus serupa meningkat, dengan 281 aduan kejahatan siber pada 2019, termasuk 91 kasus penyebaran konten intim tanpa izin. Meski AI menawarkan manfaat, seperti simulasi pendidikan atau hiburan, kurangnya regulasi ketat berisiko memperburuk kejahatan siber, pemerasan, dan pelecehan online. Tanpa pengawasan, AI bisa menjadi alat untuk mengekang kebebasan berbicara atau memicu kerusuhan sosial, terutama di negara dengan keragaman budaya seperti India.
Solusi Pemerintah India Atas Terjadinya Kasus Ini: Identitas Wanita di India Dicuri Untuk Konten AI Erotis
Pemerintah India menanggapi kejadian ini sebagai kasus yang menjerat pasal pelecehan seksual, penyebaran materi cabul, adanya pencemaran nama baik, pemalsuan identitas, dan kejahatan siber dengan ancaman hukuman hingga 10 tahun penjara lamanya. Polisi menyita laptop, ponsel, dan dokumen bank pelaku untuk penyelidikan lebih lanjut. Untuk mencegah kasus serupa, Kementerian Elektronika dan Teknologi Informasi India berencana memperkuat Information Technology Act 2000 dengan pedoman khusus untuk AI generatif. Langkah ini mencakup kewajiban platform seperti Instagram untuk mendeteksi dan menghapus konten deepfake menggunakan alat otomatis. Selain itu, pemerintah mendorong edukasi digital di sekolah dan kampanye publik tentang bahaya berbagi data pribadi. Kepolisian juga akan meningkatkan unit siber untuk menangani laporan cepat, sementara korban seperti Sanchi mendapat akses ke konseling gratis melalui skema nasional.
Kesimpulan: Identitas Wanita di India Dicuri Untuk Konten AI Erotis
Kasus pencurian identitas Sanchi untuk konten AI erotis “Babydoll Archi” ini mengguncangkan India, terutama menyoroti ancaman deepfake terhadap privasi dan reputasi. Trauma yang dialami Sanchi mencerminkan dampak buruk penyalahgunaan AI, yang dapat memperburuk kejahatan siber tanpa regulasi ketat. Langkah pemerintah India, dari penegakan hukum hingga rencana penguatan undang-undang, menunjukkan komitmen untuk melindungi warga. Namun, edukasi digital dan teknologi pendeteksi deepfake menjadi kunci untuk mencegah kasus serupa di masa depan, memastikan AI digunakan secara etis tanpa merugikan individu atau masyarakat.