Kejahatan Video Call Menggunakan Teknologi AI


Penipuan dengan mengaku keluarga/teman menggunakan nomor telepon baru sudah bukan hal asing. Si penipu akan menggunakan foto orang lain untuk melancarkan aksinya. Bersyukur, makin banyak orang yang paham dengan modus (meski masih ada saja yang kena ). Namun, seiring perkembangan teknologi, penipu tidak hanya menggunakan wajah orang untuk foto profil, tetapi juga untuk VIDEO CALL.


Saat mendapat pesan Whatsapp dengan nomor asing, kebanyakan orang mungkin akan langsung waspada. Meski demikian, biasanya masih ada sedikit ruang dalam diri yang mengatakan “mungkin memang benar dia ganti nomor.” Celah ini yang digunakan penjahat dalam modus video call ini.


Semula, kita kurang atau tidak percaya. Namun, ketika terjadi video call dan di seberang benar-benar wajah yang kita kenal, sangat mungkin kita jadi percaya. 


Modus ini aku ketahui pertama kali saat Lebaran lalu. Waktu itu, SMP-ku mengadakan reuni dadakan. Secara tidak sengaja, aku ikut rapat panitia. Setelah rapat, otomatis aku ikut dimasukkan ke grup WA panitia. Sekian hari lalu lintas chat di grup, tiba-tiba ada info kalau terjadi penipuan dengan mengatasnamakan panitia.


Menurut ketua panitia, salah satu alumni (sebut saja Mbak A) terlanjur titip transfer biaya dan donasi reuni pada seseorang yang mengaku sesama alumni (sebut saja mas B). Mbak A percaya karena dia sempat video call dengan “Mas B.” Di sisi lain, Mas B tidak merasa video call dengan Mbak A, apalagi menyatakan kesediaan dititipi transfer. Mas B sampai berani bersumpah kalau dia tidak melakukan panggilan video tersebut. 


Saat itu, aku responku hanya sebatas kaget dan heran. “Eh kok bisa sih penipuan video call menggunakan wajah orang lain?” Tapi aku tidak mencari tahu lebih jauh.


Hingga beberapa minggu lalu, aku mendapat WA dari nomor asing yang mengaku seorang yang aku kenal. Karena dari awal dia mengenalkan diri baik-baik, aku tanggapi baik-baik juga. Namun, sejalan dengan kecurigaanku, chat-nya kok aneh. Sangat tidak masuk akal jika bapak tersebut chat dengan gaya semacam itu.


Lebih aneh lagi saat dia minta video call. “Alarm” waspadaku langsung berbunyi. Aku pun berkilah sedang sibuk sehingga tidak bisa menerima video call. Selesai chat, aku segera mengontak istri si bapak. Ternyata benar, foto profil beliau digunakan oleh penipu.


Saat itu, pikiranku justru tidak langsung terkoneksi dengan kejadian penipuan saat reuni. Aku malah ingat sebuah tulisan di Quora, tentang kemungkinan penipuan video call dengan modus lain. Dalam modus ini, penipu akan menampilkan video tak senonoh saat video call (misal alat vital). 


Ketika korban menerima panggilan, penipu akan langsung menangkap layar gawai yang berisi gambar tak senonoh dan wajah korban. Selanjutnya, penipu akan memeras  korban dengan ancaman menyebarluaskan tangkap layar tadi. Kalaupun tidak menargetkan keuntungan materi, penipu mungkin seorang eksibisionis yang mendapatkan kepuasan seksual dengan modus tersebut.


Hmmmh….


*** 


Seorang teman SMP mengirim tangkap layar percakapan di atas kepadaku. Ia bilang, “aku tak pandai merangkai kata.” Jadi ia memintaku membuat status Facebook dan menandai akunnya. Saat itu, kami berdua sama-sama heran, kok bisa ya video call dengan mencuri wajah orang lain?


Kalau video yang diedit dengan wajah orang lain sih aku sudah lama tahu. Namun, kalau menggunakan wajah orang lain saat video call aku baru tahu saat reuni SMP itu. Video call kan realtime… begitu pikirku.


Baru deh, aku tergerak untuk browsing di Google. Ternyata sudah cukup banyak artikel tentang penipuan video call menggunakan teknologi deepfake artificial intelligence (AI). Entah karena kata kunci yang kugunakan atau karena memang belum banyak di Indonesia, alhasil pencarianku hanya menunjukkan kasus-kasus kejadian di luar negeri. Namun, jika menilik kejadian yang aku ceritakan di sini, kasusnya juga sudah terjadi di Indonesia.


Sungguh mengerikan yaaaa…. Sebab, teknologi saat ini sudah memungkinkan untuk tidak hanya mengganti wajah dan suara pada video rekaman. Namun, juga pada video yang berlangsung secara real time. Dalam salah satu berita disebut, seorang karyawan di China mentransfer miliaran dollar uang perusahaan. Semula, karyawan ini sudah curiga jika pemberitahuan/perintah transfer lewat email adalah palsu. Namun, rasa sanksinya luntur ketika sindikat penipu mengundangnya pada konferensi video yang juga diikuti karyawan lain yang dia kenal. Sebuah konferensi video yang ternyata melibatkan sosok-sosok palsu dengan teknologi deepfake.


Benar-benar seperti di film-film semacam Mission Impossible yaaa… 


Teknologi AI sesungguhnya bisa memberi banyak manfaat pada manusia. Namun, di tangan yang salah, justru menjadi alat untuk melakukan kejahatan.


Bagi kita yang awam soal teknologi semacam ini, semoga selalu diberi kewaspadaan sehingga terhindar dari kejahatan. Selalu lakukan check dan recheck seluas mungkin, terlebih  jika menyangkut tawaran bisnis, transfer uang, dan sejenisnya.(lsd)


Referensi :


https://www.kompas.com/global/read/2024/02/07/194500470/karyawan-ini-ditipu-video-call-deepfake-menyamar-sebagai-bos-lalu-kuras


https://teknologi.bisnis.com/read/20230616/84/1666283/waspadai-penipuan-video-call-pakai-teknologi-ai

13 komentar untuk "Kejahatan Video Call Menggunakan Teknologi AI"

  1. ya ampun serem banget ya mba kalo kita gak hati-hati, ada juga pakai suara AI yang mirip suara keluarga dekat

    BalasHapus
  2. Eh aku juga pernah nonton video tiktok tentang modus kejahatan vcall pakai AI tapi penculikan anak, pura2 jadi ortu agar anak mau dijemput sama teman ortunya padahal penipu

    BalasHapus
  3. Kejahatan via digital ini mengerikan ya mbak. Duh duh amit² jangan sampai ketemu orang² jahat kayak gitu. Padahal pemanfaatan digital dengan baik bisa menghasilkan cuan lho!

    BalasHapus
  4. Iya Mbak serem banget ya. Kayaknya sindikat penipuan yang mengatasnamakan Baim Wong juga gitu VC dengan wajah Baim Wong karena korban ngaku langsung VC sama dia padahal mah nggak.

    BalasHapus
  5. Mengerikan banget ya kejahatan jaman now makin di luar nalar. Pernah dengar juga case kayak gini, semoga saja kita tidak mudah terpancing menerima Video call dari nomor tidak di kenal, ngeri merugikan. Semoga saja kita senantiasa teliti ya.

    BalasHapus
  6. Emang kecanggihan teknologi itu selain banyak manfaatnya juga pasti banyak oknum yang mengambil celahnya untuk hal negatif. Ngeri ihh bisa vc pake AI. Harus hati2 banget kita buat antisipasi hal yang ngga diinginkan yah.

    BalasHapus
  7. Kecanggihan teknologi AI ternyata membawa pengaruh negatif juga ya bagi kehidupan manusia. Mesti semakin waspada kalau begitu. Duh amit2 jangan sampai ada yang VC aku dengan profil orang dikenal padahal dia bukan :( Makin teliti jangan asal percaya begitu saja kalau ada yang VC.

    BalasHapus
  8. Nngeri banget ya sekarang ini, kemudahan teknologi malah disalah gunakan oleh orang-orang jahat. Sedihnya tuh ya memang jadi teman-teman atau saudara kita sendiri yang kena.

    BalasHapus
  9. Ini yang ditakutkan tatkala pemanfaatan AI malah ke arah yang negatif.
    Sosialisasi seperti ini kudu masif dilakukan.
    Semoga kita semua selalu dalam lindungan-NYA ya.

    BalasHapus
  10. Tulisan ka Lis pas banget sama trending X hari ini.
    Bjorka.
    Yang sempat viral meretas akun kepemerintahan dan melakukan sejumlah aksi. Namun ada benerna bentukan orangnya, walau hanya ditampakkan bagian tangannya.

    Kini, zaman digital.. semuanya serba canggih yaa..
    Tapi kayanya AI masih sangat keliatan bedanya ama yang asli sih yaa.. AI-nya masih kaku-kaku, gitu gasii ka Lis?

    Perlu semakin meningkatkan kewaspadaan agar kita semua gak tertipu soceng, dan hal serupa lainnya.

    BalasHapus
    Balasan
    1. wah aku nggak mengikuti trending X. Dan belum baca lg soal Bjorka ini sejak rame2 waktu itu.

      Tapi bener yang Mak Len dibilang kalau
      penampakan dari wajah menggunakan teknologi Ai ini pasti ada kurang pas nya.

      Bahkan kalau dalam video call mungkin terlihat seperti panggilan dengan sinyal yang buruk. Memang harus waspada sekali, ya

      Hapus
  11. Makasih banyak maak mau berbagi info penting, karena aku baru tauu lho...memang sih aku kalau nomor ga dikenal vcall gabakal aku angkat.

    Kejahatan sekarang yaa ngeri.

    BalasHapus
  12. Duh makin ngeri aja ya mbak penipuan ini sampai pakai deep fake segala. Kita harus benar-benar berhati-hati nih dalam menggunakan gawai

    BalasHapus

Terima kasih atas kunjungannya. Mohon tidak meninggalkan link hidup dalam komentar ya :)