Waspada! Penipuan AI Kian Canggih, Ini Modus dan Cara Hindarinya


Ilustrasi Hacker

Ilustrasi Hacker

Teknologi kecerdasan buatan atau Artificial Intelligence (AI) saat ini berkembang begitu cepat. Dari membantu pekerjaan, menciptakan konten, hingga otomatisasi berbagai proses, AI telah menjadi bagian dari kehidupan modern. Namun sayangnya, di balik manfaat besar yang ditawarkan, AI kini juga digunakan oleh pihak-pihak tak bertanggung jawab untuk melakukan kejahatan, terutama penipuan siber.

Sepanjang tahun lalu, dunia telah menyaksikan maraknya berbagai bentuk penipuan digital yang canggih. Modus-modus seperti deepfake, kloning suara, hingga phishing berbasis AI terus bermunculan dan memakan banyak korban. Namun menurut para pakar keamanan digital, itu baru permulaan. Tahun 2025 dan ke depan diprediksi akan menjadi masa di mana penipuan berbasis AI berkembang jauh lebih kompleks dan berbahaya.

Artikel ini akan mengupas tuntas modul-modus penipuan berbasis AI yang sedang marak, siapa saja yang menjadi sasarannya, serta bagaimana masyarakat dan korporasi bisa melindungi diri dari serangan digital ini.

 

AI Tidak Lagi Netral: Digunakan sebagai Senjata oleh Penjahat Siber

Dalam laporan terbaru yang dirilis oleh Forbes, dijelaskan bahwa AI kini bukan hanya menjadi alat produktivitas, tetapi juga berubah menjadi senjata mematikan di tangan para sindikat kejahatan global. Dengan kemampuan memanipulasi suara, gambar, hingga menciptakan percakapan yang terdengar alami, AI membuka celah baru dalam dunia penipuan.

Tidak tanggung-tanggung, para pelaku kejahatan siber kini bahkan mampu menipu karyawan perusahaan besar dan membuat mereka mentransfer dana dalam jumlah besar hanya melalui pertemuan virtual yang sebenarnya palsu.

Lebih dari sekadar sekadar spam email atau scam tradisional, penipuan berbasis AI kini tampil sangat canggih dan sulit dibedakan dari komunikasi yang sah. Berikut ini adalah empat modus penipuan AI yang paling berbahaya dan patut diwaspadai.

1.Penipuan Bisnis Lewat Deepfake dan Serangan BEC (Business Email Compromise)

Salah satu metode penipuan yang sedang naik daun adalah Business Email Compromise (BEC). Pada skema ini, pelaku berpura-pura menjadi seseorang yang memiliki otoritas penting, seperti CEO, direktur keuangan, atau atasan langsung. Sebelumnya, modus BEC biasanya hanya mengandalkan email dan gaya bahasa meyakinkan. Namun kini, BEC berkembang dengan dukungan deepfake video dan kloning suara berbasis AI.

Contoh Kasus:
Di Hong Kong, sekelompok penjahat siber berhasil menyamar sebagai bos perusahaan dalam panggilan Zoom palsu menggunakan teknologi deepfake. Wajah dan suara yang muncul di layar sangat meyakinkan, sehingga pegawai perusahaan tidak menyadari bahwa mereka sedang berbicara dengan tiruan digital. Akibatnya, pegawai tersebut mentransfer dana hampir Rp 480 miliar ke rekening yang dikendalikan penjahat.

Data juga menunjukkan bahwa 40% email BEC saat ini telah dihasilkan sepenuhnya oleh AI, yang membuatnya semakin sulit dibedakan dari email asli. Di Amerika Serikat, lebih dari separuh profesional di bidang akuntansi mengaku pernah menjadi target serangan BEC.

Mengapa Berbahaya?

  • Deepfake dapat menciptakan video atau suara yang sangat menyerupai individu sebenarnya.
  • Serangan dilakukan dengan pendekatan sosial (social engineering) yang sangat halus.
  • Korban cenderung tidak waspada karena serangan terlihat “sah.”

2. Chatbot Penipu dengan Modus Asmara

Kejahatan dunia maya juga menyusup ke wilayah emosional dan psikologis manusia. Modus romance scam alias penipuan asmara memang bukan hal baru, namun kini sudah berevolusi menggunakan chatbot AI otonom.

Chatbot ini dirancang menyerupai manusia dalam cara berkomunikasi, termasuk kemampuan bercakap secara natural, menyusun kalimat penuh emosi, dan merespons dengan bahasa tubuh virtual yang meyakinkan. Banyak korban tidak menyadari bahwa mereka sebenarnya sedang berbicara dengan program, bukan manusia sungguhan.

Fakta Mengejutkan:
Salah satu pelaku kejahatan asal Nigeria bahkan membocorkan dalam video bagaimana mereka menggunakan bot AI untuk merayu dan menjebak korbannya. Prosesnya dilakukan lewat media sosial, platform kencan online, hingga aplikasi perpesanan.

Ciri-Ciri Penipuan Asmara AI:

  • Akun palsu dengan foto orang lain.
  • Chat terasa terlalu sempurna atau “terlalu nyambung.”
  • Permintaan uang atau bantuan dalam waktu singkat setelah kenalan.

3. “Pig Butchering” Versi AI – Penipuan Investasi Berkedok Cinta atau Bisnis

Istilah “pig butchering” dalam dunia penipuan digital merujuk pada skema di mana pelaku membangun hubungan jangka panjang dengan korban, seolah-olah memberi “makan babi” sebelum akhirnya disembelih dengan menguras uang korban melalui skema investasi palsu.

Kini, skema ini dilakukan secara massal menggunakan AI, bahkan bisa dikendalikan hanya oleh beberapa orang dengan banyak akun palsu yang diotomatisasi. AI digunakan untuk:

  • Mengirim pesan massal melalui tools seperti Instagram Automatic Fans.
  • Membuat akun palsu lengkap dengan foto, bio, dan aktivitas yang terlihat meyakinkan.
  • Melakukan deepfake video call dan kloning suara agar interaksi terlihat nyata.

Contoh Pesan yang Digunakan:
“Hai, teman saya menyarankan agar saya mengenal kamu. Apa kabar?”

Mengapa Efektif?

  • AI mempercepat proses pencarian dan pengelolaan korban.
  • Skema investasi dibuat seolah-olah legal dan menguntungkan.
  • Hubungan emosional dimanfaatkan untuk membuat korban percaya.

4. Pemerasan Deepfake terhadap Eksekutif dan Pejabat Pemerintah

Salah satu bentuk penipuan AI paling mengerikan adalah pemerasan berbasis deepfake. Para pelaku menggunakan konten palsu berupa video atau foto tidak senonoh, yang memperlihatkan seseorang dalam kondisi memalukan padahal itu bukan rekaman asli.

Contoh Kasus:
Di Singapura, kelompok penjahat siber mengirim email ancaman kepada para pejabat dan eksekutif perusahaan. Mereka melampirkan video deepfake yang mencatut wajah para korban, lalu menuntut pembayaran dalam bentuk mata uang kripto hingga puluhan ribu dolar. Jika tidak dipenuhi, video tersebut akan disebar ke publik.

Teknologi deepfake yang digunakan dibuat dari foto atau video yang diambil dari LinkedIn, YouTube, atau media sosial lainnya. Dengan perangkat lunak yang kini semakin mudah diakses publik, siapa pun berpotensi menjadi korban.

Mengapa Penipuan Berbasis AI Sulit Dikenali?
Ada beberapa alasan mengapa penipuan berbasis AI begitu sulit dideteksi, antara lain:

  • Kualitas visual dan suara yang sangat realistis.
  • AI dapat belajar dari gaya komunikasi manusia.
  • Serangan dilakukan dengan pendekatan psikologis, bukan teknis.
  • Korban tidak merasa sedang dalam bahaya karena konteks terlihat natural.

Siapa yang Menjadi Target?

  • Karyawan perusahaan, khususnya yang menangani keuangan.
  • Eksekutif dan pejabat pemerintahan.
  • Masyarakat umum yang aktif di media sosial.
  • Pengguna aplikasi kencan dan platform chatting online.

Bagaimana Melindungi Diri dari Penipuan AI?
Berikut adalah beberapa langkah perlindungan yang bisa diterapkan oleh individu dan perusahaan:

Untuk Individu:

  • Selalu skeptis terhadap pesan dari orang yang tidak dikenal.
  • Jangan mudah mengirimkan uang atau data pribadi, bahkan jika orang tersebut tampak meyakinkan.
  • Periksa ulang informasi menggunakan sumber resmi.
  • Lakukan verifikasi ganda, misalnya lewat panggilan telepon langsung.

Untuk Perusahaan:

  • Terapkan sistem otentikasi multi-level untuk proses keuangan.
  • Edukasi seluruh karyawan mengenai serangan BEC dan penipuan AI.
  • Gunakan solusi keamanan digital yang bisa mendeteksi konten deepfake dan phishing otomatis.
  • Lakukan audit berkala terhadap sistem komunikasi internal.

 

AI Harus Diwaspadai, Bukan Dihindari

Teknologi AI pada dasarnya netral. Ia bisa membawa manfaat besar dalam berbagai bidang, tetapi di tangan yang salah bisa menjadi alat kejahatan yang sangat merugikan. Masyarakat dan organisasi perlu menyadari risiko ini, bukan untuk menolak AI, tetapi untuk menggunakannya dengan bijak dan tetap waspada.

Dengan memahami modus-modus penipuan berbasis AI dan menerapkan langkah perlindungan yang tepat, kita dapat mengurangi risiko menjadi korban. Jangan biarkan kecanggihan teknologi menjadi bumerang hanya karena kita lalai mengenalinya.

Bagikan artikel ini

Komentar ()

Berlangganan

Berlangganan newsletter kami dan dapatkan informasi terbaru.

Video Terkait