Lompatan Teknologi "Deepfake", Senjata Baru Dunia Tipu-Tipu 

kompas.id
4 jam lalu
Cover Berita

Sepanjang tahun 2025, teknologi deepfake melompat maju dibandingkan tahun sebelumnya. Wajah, suara, dan penampilan tubuh yang dihasilkan kecerdasan buatan ini makin menyerupai manusia nyata. Perkembangan ini juga membuat deepfake kian banyak memicu masalah, termasuk digunakan untuk menipu orang.

Bayangkan membuka ponsel dan melihat foto anak atau saudara Anda dalam pose nyaris tanpa busana, yang sebenarnya tidak dia lakukan. Gambar yang sulit dibedakan dengan aslinya itu merupakan hasil rekayasa Grok, atas permintaan entah siapa, yang kemudian diunggah di X.

Di lain waktu, Anda mungkin menerima panggilan dari “Bos” yang meminta pengiriman uang, padahal sebenarnya itu bukan dia sama sekali, hanya sebuah rekaman suara yang dihasilkan oleh algoritma.

Baca Juga”Deepfake”, Ancaman Manipulasi Konten yang Mengintai di Sekitar Kita

Hal ini bukan cerita fiksi ilmiah, melainkan realitas teknologi yang semakin dekat dengan keseharian kita, yaitu deepfake atau konten foto, audio atau video yang sepenuhnya disintesis oleh kecerdasan buatan.

Apa yang dilakukan Grok, yang kini diblokir sementara di Indonesia itu, menunjukkan babak baru teknologi deepfake yang menunjukkan lonjakan, dalam kualitas maupun volume konten.

Perusahaan keamanan siber DeepStrike mencatat jumlah deepfake yang beredar daring meningkat dari sekitar 500.000 pada 2023 menjadi sekitar 8 juta pada 2025. Lonjakan yang mengkhawatirkan dengan pertumbuhan hampir 900 persen itu terjadi hanya dalam dua tahun terakhir.

Sumber kejahatan

Awalnya, deepfake merupakan eksperimen kecil yang dipakai untuk hiburan, seperti mengganti wajah aktor di film atau membuat parodi selebritas. Namun kemajuan dalam model generatif, terutama generative adversarial networks (GANs) dan model suara berbasis diffusion, telah meningkatkan realisme konten secara drastis.

Kini, video deepfake bisa menampilkan wajah yang stabil dalam berbagai gerak dan ekspresi, sedangkan suara yang dihasilkan mampu meniru intonasi, jeda, dan pola napas manusia hanya dari beberapa detik rekaman. Para pelaku kriminal pun mendapat senjata baru untuk melakukan kejahatan.

Mohammed Khalil dari DeepStrike dalam laporan investigasinya menyebutkan, meski deepfake digunakan untuk berbagai tujuan, sebenarnya tujuan utama pembuatannya adalah penipuan. Maka, seiring lonjakan produksinya, upaya penipuan identitas menggunakan deepfake juga melonjak luar biasa sebesar 3.000 persen pada tahun 2023.

"Dampak finansial dari serangan menggunakan deepfake juga sangat besar. Pada tahun 2024, bisnis kehilangan rata-rata hampir 500.000 dolar AS per insiden terkait deepfake. Untuk perusahaan besar, biayanya bahkan lebih tinggi, dengan beberapa kerugian mencapai hingga 680.000 dolar AS," sebut Khalil.

KOMPAS
Tampilan program detektor deepfakes milik Microsoft yang bernama "Video Authenticator".

Deloitte Center for Financial Services memproyeksikan kerugian penipuan di AS yang difasilitasi oleh AI generatif akan meningkat dari 12,3 miliar dollar AS pada tahun 2023 menjadi 40 miliar dollar AS pada tahun 2027, dengan tingkat pertumbuhan tahunan gabungan sebesar 32 persen.

Amerika Utara menjadi target utama, dengan peningkatan penipuan deepfake 1.740 persen antara tahun 2022 dan 2023. Kerugian finansialnya amat besar, dengan kerugian di wilayah tersebut melebihi 200 juta dolar AS hanya dalam kuartal pertama tahun 2025.

Wilayah Asia Pasifik, termasuk kawasan Indonesia, juga dipetakan mengalami peningkatan penipuan deepfake sebesar 1.530 persen selama periode yang sama.

Dampak finansial dari serangan menggunakan deepfake juga sangat besar. Pada tahun 2024, bisnis kehilangan rata-rata hampir 500.000 dolar AS per insiden terkait deepfake.

Contoh paling nyata serangan deepfake yakni insiden seorang pekerja keuangan di perusahaan teknik global Arup yang tertipu untuk mentransfer uang 25 juta dolar AS ke rekening yang dikendalikan oleh penipu pada Februari 2024.

Menurut Khalil, ini bukan serangan phishing sederhana. Serangan tersebut melibatkan panggilan konferensi video multi-orang yang canggih dengan menampilkan kemiripan deepfake yang dihasilkan AI dari kepala keuangan perusahaan dan eksekutif senior lainnya.

Di luar Arup, serangan yang terdokumentasi mengungkapkan taktik yang makin canggih. Tahun lalu, para penipu mencoba menyamar sebagai CEO Ferrari, Benedetto Vigna, melalui panggilan suara hasil kloning AI yang meniru aksen Italia selatannya dengan sempurna.

Panggilan tersebut baru diakhiri setelah seorang eksekutif kemudian mengajukan pertanyaan kepada penelepon yang jawabannya hanya diketahui oleh Vigna.

Saat ini agen penipu sudah banyak memanfaatkan suara yang dihasilkan AI untuk menipu korban dalam skenario penipuan finansial (spearphishing), di mana pengguna percaya bahwa mereka berbicara dengan orang yang dikenal.

Baca Juga”Deepfake” yang Mencemaskan

Laporan terbaru Harsha Kumara Kalutarage, dalam laporan pracetak arxiv.org yang dikelola Universitas Cornell, menunjukkan 66 persen peserta gagal mengidentifikasi audio sintetis sebagai palsu dan 43 persen gagal mengidentifikasi video palsu. Angka ini memperkuat kekhawatiran akan kerentanan manusia terhadap rekayasa media yang canggih.

Dalam kasus lain, deepfake dimanfaatkan dalam manipulasi politik, misalnya menyebarkan pidato palsu pejabat tinggi untuk menciptakan kebingungan atau memancing respons publik salah arah. Dalam banjir Sumatera yang lalu, kita juga bisa melihat banyaknya penggunaan deepfake dalam kampanye disinformasi dan mencoba memengaruhi opini publik.

Serial Artikel

Grok, Mens Rea, dan Kontrol Penguasa

Teknologi tanpa etika jelas berbahaya. Namun, kekuasaan tanpa kontrol jauh lebih berbahaya.

Baca Artikel
Semakin mengkhawatirkan

Siwei Lyu, ahli komputer dari University at Buffalo, yang meneliti deepfake dan media sintetis lainnya mengatakan, ancaman penipuan karena deepfake bakal memburuk pada tahun ini, karena teknologi ini menjadi makin canggih sehingga mampu bereaksi terhadap orang secara real-time.

Dalam ulasannya di The Conversation pada 26 Desember 2025, Lyu mencatat beberapa pergeseran teknis yang mendasari peningkatan dramatis deepfake. Pertama, realisme video mengalami lompatan signifikan berkat model pembuatan video yang dirancang khusus untuk mempertahankan konsistensi temporal.

Baca JugaTeknologi ”Deepfake” Menyasar Taylor Swift sampai Perempuan Politisi

Model-model tersebut menghasilkan wajah yang stabil dan koheren tanpa kedipan, distorsi, atau distorsi struktural di sekitar mata dan garis rahang yang dulunya berfungsi sebagai bukti forensik yang andal untuk deepfake.

Kedua, kloning suara telah melampaui apa yang disebut Lyu sebagai "ambang batas yang tidak dapat dibedakan." Beberapa detik audio sekarang cukup untuk menghasilkan klon yang meyakinkan, lengkap dengan intonasi alami, ritme, penekanan, emosi, jeda, dan suara napas.

facebook
Bisakah Anda membedakan mana video deepfake dan mana yang asli? 1, 4, dan 6 adalah asli. Video 2, 3, dan 5 adalah deepfake.

Ketiga, alat-alat konsumen mendorong hambatan teknis hampir ke nol. Lyu mencontohkan, peningkatan dari Sora 2 milik OpenAI dan Veo 3 milik Google serta gelombang perusahaan rintisan.

Hal ini berarti bahwa siapa pun dapat mendeskripsikan ide, membiarkan model bahasa besar seperti ChatGPT milik OpenAI atau Gemini milik Google menyusun skrip, dan menghasilkan media audio-visual yang dipoles dalam hitungan menit oleh siapa saja, termasuk para penipu.

Bukan hanya soal uang, ke depan deepfake bakal lebih banyak digunakan untuk mengelabui sistem identity verification (IDV) yang mengandalkan biometrik, seperti verifikasi wajah atau suara. Namun, efek sosial deepfake paling meluas ke depan mungkin adalah penyalahgunaan pada individu.

Menurut DeepStrike, saat ini lebih dari 96 persen konten deepfake daring berupa materi intim tanpa persetujuan, yang disebut juga Non-Consensual Intimate Imagery (NCII) atau deepfake pornography. Hampir seluruh pemalsuan deepfake ini menargetkan perempuan seperti ditunjukkan Grok di X.

Selain ancaman penipuan yang bakal terus membesar seiring kecanggihannya, ke depan deepfake bisa melemahkan kepercayaan publik terhadap media digital.

Ketika video dan audio yang tampaknya sah bisa diproduksi tanpa batas, masyarakat mulai meragukan keaslian apa pun yang mereka lihat secara daring. Fenomena ini bisa disebut sebagai “liar’s dividend,” di mana orang bisa menolak bukti nyata sebagai palsu.

Baca JugaMenanggapi "Deep Fake" AI secara Produktif

Ketika siapa pun bisa membuat konten palsu tampak nyata, kita memasuki era di mana keraguan terhadap bukti nyata bisa menjadi alat manipulasi itu sendiri. Untuk menanggulangi ancaman ini, butuh kolaborasi antara pelaku teknologi, hukum, pendidikan media, dan budaya digital yang kuat. Kita tak boleh ketinggalan oleh evolusi model generatif AI.


Artikel Asli

Berikan komentar Anda
Lanjut baca:

thumb
Terdakwa Kasus Suap Migor Beli Rubicon Pakai Nama Eks Asisten Pribadi
• 16 jam laludetik.com
thumb
BNPB Siapkan 121 Huntara bagi Warga Pematang Durian Aceh Tamiang
• 2 jam lalumetrotvnews.com
thumb
Perang Terus Meluas: Norwegia Bantu Ukraina Sekitar Rp 6 Triliun, Inggris Kembangkan Rudal Baru untuk Ukraina
• 22 jam laluerabaru.net
thumb
Menteri PU Tiba-Tiba Kirim Pesan ke Investor Soal IKN, Simak!
• 14 jam lalucnbcindonesia.com
thumb
Nasib Tiang Monorel Jakarta: Dibangun Rp 193 Miliar, Dibongkar Rp 254 Juta
• 17 jam lalukompas.com
Berhasil disimpan.