Penjahat Siber Memanfaatkan AI untuk Serangan Lebih Canggih


Ilustrasi Cyber Security 5

Ilustrasi Cyber Security

Sementara pertumbuhan AI yang pesat telah membawa banyak keuntungan bagi individu dan perusahaan, ancaman baru dalam dunia siber juga muncul sebagai akibat dari kemudahan aksesnya. Penjahat siber sekarang menggunakan AI untuk membuat serangan siber mereka lebih cepat, lebih rumit, dan lebih sulit dideteksi.

Penjahat Siber Menggunakan AI sebagai Senjata Baru

Teknologi AI telah memungkinkan penjahat siber untuk mengotomatisasi serangan dan mempercepat operasi mereka. Sebagaimana dijelaskan oleh Kaspersky pada hari Jumat (9/8), tentang beberapa cara para pelaku kejahatan menggunakan AI:

  • Membuat Perangkat Lunak yang Berbahaya

AI seperti ChatGPT dapat digunakan untuk membuat perangkat lunak berbahaya. Penjahat siber dapat mengotomatisasi serangan terhadap banyak pengguna sekaligus dengan menggunakan model bahasa alami.

  • Menjaga Pengawasan Aktivitas Pengguna

Input pengguna, seperti data sensor akselerasi, dapat dicatat oleh program AI melalui ponsel pintar. Ini memungkinkan penjahat siber mendapatkan data pribadi seperti kata sandi, pesan, dan kode perbankan.

  • Swarm Intelligence, atau botnet otonom dengan kecerdasan kelompok

Kecerdasan kelompok memungkinkan botnet otonom berkomunikasi satu sama lain untuk memperbaiki jaringan berbahaya setelah kerusakan, meningkatkan ketahanan jaringan terhadap upaya penghancuran.

AI Mempercepat Pembobolan Kata Sandi

Meskipun enkripsi melindungi kata sandi, AI dapat digunakan untuk memecahkan kata sandi yang dienkripsi, menurut penelitian terbaru Kaspersky. Pada Juli 2024, kompilasi kata sandi terbesar yang pernah bocor di internet, yang mencakup sekitar 10 miliar baris dan 8,2 miliar kata sandi unik, dipublikasikan secara online.

Dengan menggunakan algoritma brute-force sederhana dan GPU 4090 kontemporer, Alexey Antonov, kepala ilmuwan data Kaspersky, menemukan bahwa tiga puluh dua persen dari kata sandi pengguna yang dianalisis dapat diuraikan dari bentuk hash terenkripsi dalam waktu kurang dari 60 menit.

Selain itu, telah terbukti bahwa AI dapat memecahkan kata sandi tiga kali lebih cepat daripada metode brute-force konvensional. Model bahasa yang dilatih pada basis data kata sandi dapat memecahkan 78% kata sandi.

  • Rekayasa Sosial dengan AI

AI juga digunakan dalam rekayasa sosial untuk membuat konten yang terlihat asli, seperti teks, gambar, audio, hingga video. Phishing, misalnya, dapat menggunakan AI untuk meniru gaya penulisan individu tertentu, membuat email penipuan yang sangat terlihat dan sulit dibedakan dari yang sebenarnya.

  • Deepfake

Teknologi deepfake menjadi ancaman besar lainnya. Penjahat siber menggunakannya untuk menipu korban dengan meniru identitas orang, termasuk selebriti dan eksekutif perusahaan. Salah satu serangan paling canggih terjadi pada Februari 2024 di Hong Kong, di mana penipu menggunakannya untuk menyamar sebagai eksekutif perusahaan dan berhasil meyakinkan pekerja keuangan untuk mentransfer dana sebesar $25 juta.

Serangan Terhadap Algoritme Artificial Intelligence (AI)

Pelaku ancaman dapat menyerang algoritme AI selain memanfaatkannya untuk kejahatan. Serangan ini mencakup:

  • Percepat Model Bahasa Besar/Large Language Model (LLM)

Penyerang dapat mengelabui model untuk melakukan tindakan yang tidak diinginkan dengan membuat permintaan yang melampaui batasan sebelumnya.

Dalam serangan ini, peretas menyuntikkan konteks atau instruksi tambahan ke dalam input yang diberikan kepada model dengan tujuan untuk mempengaruhi output yang dihasilkan. Dengan menyisipkan kata-kata atau frasa tertentu, mereka dapat memanipulasi model untuk memberikan respons yang tidak diinginkan, menyebarkan disinformasi, atau bahkan mengakses data sensitif.

Hal ini menjadi perhatian serius dalam keamanan siber karena Model Bahasa Besar yang tidak dijaga dengan baik dapat menjadi alat yang efektif bagi pelaku kejahatan.

  • Serangan Adversarial

Penyerang dengan sengaja menciptakan input yang dirancang untuk menipu model AI agar menghasilkan output yang salah atau tidak terduga. Input ini sering kali terlihat normal bagi pengguna, tetapi diatur sedemikian rupa sehingga dapat mengelabui algoritme AI.

Dalam konteks keamanan siber, serangan adversarial dapat digunakan untuk menyerang berbagai sistem berbasis AI, seperti sistem pengenalan wajah, deteksi spam, atau bahkan kendaraan otonom. Misalnya, dengan sedikit memodifikasi gambar jalanan, serangan adversarial dapat membuat sistem pengenalan jalan pada mobil otonom salah mengenali tanda lalu lintas, yang dapat menyebabkan kecelakaan.

Untuk menghadapi ancaman siber ini, perusahaan keamanan siber Kaspersky telah lama menggunakan teknologi kecerdasan buatan untuk melindungi pelanggannya dari berbagai ancaman siber dengan mengembangkan dan memperbarui model Artificial Intelligence yang mereka buat.


Bagikan artikel ini

Video Terkait