Peretas China Gunakan AI Canggih untuk Spionase Global


Ilustrasi Hacker

Ilustrasi Hacker

Dunia keamanan siber kembali diguncang dengan terungkapnya kampanye spionase tingkat tinggi yang memanfaatkan Artificial Intelligence (AI) secara agresif dan otomatis. Kelompok peretas yang diduga didukung pemerintah China diketahui menyalahgunakan teknologi AI milik Anthropic, perusahaan di balik model AI Claude, untuk melancarkan serangkaian serangan siber terstruktur dan hampir tanpa campur tangan manusia. Insiden ini terjadi pada pertengahan September 2025 dan disebut sebagai salah satu tonggak baru yang menandai meningkatnya kemampuan aktor jahat dalam memanfaatkan AI untuk aktivitas kriminal siber.

Anthropic menyebut bahwa para pelaku memanfaatkan kemampuan “agentic AI”, yakni kemampuan model AI untuk tidak hanya memberikan rekomendasi, tetapi juga mengeksekusi tindakan secara mandiri. Perusahaan menegaskan bahwa tingkat otonomi yang dipakai dalam kampanye ini belum pernah terjadi sebelumnya, bahkan dibandingkan dengan insiden penyalahgunaan AI lainnya beberapa tahun terakhir.

 

Mengincar 30 Target Strategis Global

Dalam penyelidikannya, Anthropic menemukan bahwa para peretas memanipulasi Claude Code, alat pemrograman berbasis AI milik Anthropic, untuk mencoba menembus pertahanan sekitar 30 target strategis di berbagai negara. Target tersebut mencakup perusahaan teknologi besar, lembaga keuangan multinasional, pabrik kimia, hingga instansi pemerintah.

Beberapa upaya penyusupan ini sayangnya berhasil menembus sistem korban. Sebagai respons, Anthropic segera menutup akses akun-akun yang terlibat dan memasang mekanisme pertahanan tambahan untuk mendeteksi pola serangan serupa di masa depan.

Kampanye yang diberi nama GTG-1002 ini menjadi catatan penting dalam sejarah keamanan siber: untuk pertama kalinya, AI digunakan untuk menjalankan serangan siber skala besar yang sebagian besar beroperasi tanpa kendali manusia secara langsung.

 

Claude Berubah Menjadi ‘Agen Serangan Siber Otonom’

Anthropic menyebut kampanye ini sangat terorganisir dan tampaknya dibiayai dengan sumber daya besar. Para pelaku mengubah Claude menjadi semacam “agen serangan siber otonom” yang mampu menangani berbagai tahap serangan secara end-to-end.

Fungsi yang ditangani AI dalam operasi ini meliputi:

  • Pengintaian jaringan dan sistem target
  • Pencarian kerentanan
  • Eksploitasi celah keamanan
  • Pergerakan lateral di dalam jaringan
  • Pencurian kredensial
  • Analisis data hasil peretasan
  • Ekstraksi data ke luar jaringan

Secara teknis, serangan ini memanfaatkan gabungan Claude Code dan Model Context Protocol (MCP). Claude Code berperan sebagai pusat kendali yang menerjemahkan instruksi manusia menjadi serangkaian tugas teknis yang dapat diselesaikan AI secara otomatis. Claude memecah serangan kompleks menjadi tugas-tugas kecil, lalu mendistribusikannya ke sub-agen yang bertindak layaknya tim “peretas digital”.

Anthropic menjelaskan bahwa operator manusia hanya memberikan arahan umum dan mengambil keputusan penting pada titik-titik eskalasi tertentu. Selebihnya, 80–90% operasi taktis dijalankan oleh AI pada kecepatan yang mustahil dilakukan manusia.

“Peran manusia lebih pada inisiasi kampanye dan penentuan keputusan otorisasi di momen-momen kritis,” jelas perusahaan itu dalam laporannya.

 

Serangan yang Berjalan Layaknya Tim Peretas Profesional

Keterlibatan manusia tetap dibutuhkan pada beberapa tahap strategis, seperti:

  • memberikan lampu hijau untuk beralih dari pengintaian ke eksploitasi,
  • menyetujui penggunaan kredensial curian untuk masuk ke sistem lain,
  • menentukan data mana yang perlu diambil atau dihapus.

Setelah mendapat izin, AI menjalankan seluruh tahapan serangan layaknya tim peretas berpengalaman: memetakan permukaan serangan, menemukan celah, membuat payload khusus untuk memanfaatkan celah, mengeksekusi eksploitasi, lalu mengumpulkan data bernilai tinggi.

Dalam satu kasus yang melibatkan perusahaan teknologi global, AI bahkan diperintahkan untuk mengakses database, mengolah data, dan mengelompokkan temuan berdasarkan nilai intelijen tanpa campur tangan manusia. Claude bahkan menghasilkan dokumentasi rinci pada setiap fase serangan — sebuah praktik yang biasa dilakukan oleh tim APT (Advanced Persistent Threat) untuk operasi jangka panjang.

Anthropic menilai hal ini memungkinkan para pelaku untuk menyerahkan akses jangka panjang kepada kelompok lain setelah fase awal serangan selesai.

 

Penyalahgunaan Prompt dan Persona untuk Menipu AI

Salah satu hal yang memperburuk situasi adalah bagaimana para pelaku menggunakan “prompt” dan persona tertentu untuk membuat Claude menjalankan instruksi teknis tanpa menyadari konteks jahat yang lebih besar. Bagi AI, tugas tersebut terlihat seperti pekerjaan teknis rutin, bukan bagian dari operasi spionase.

Meski serangan ini sangat canggih, Anthropic tidak mendapati bukti bahwa para pelaku mengembangkan malware baru. Mereka lebih banyak mengandalkan alat publik seperti pemindai jaringan, framework eksploitasi database, password cracker, dan alat analisis biner yang banyak tersedia secara gratis.

 

AI Tetap Memiliki Kelemahan: Halusinasi

Meskipun AI tampak sangat efisien untuk menjalankan serangan, penyelidikan juga menemukan bahwa ada kelemahan mendasar: AI sering “berhalusinasi”, yaitu menghasilkan informasi yang salah atau tidak akurat.

Dalam beberapa kasus, Claude:

  • membuat kredensial palsu,
  • menyimpulkan data publik sebagai temuan rahasia,
  • atau memberikan hasil analisis yang tidak dapat digunakan.

Kesalahan-kesalahan ini mengurangi efektivitas serangan dan menunjukkan bahwa penggunaan AI otonom tidak sepenuhnya dapat diandalkan.

 

Bagian dari Tren Baru Serangan Berbasis AI

Insiden GTG-1002 ini muncul sekitar empat bulan setelah Anthropic menghentikan operasi canggih lainnya pada Juli 2025 yang memanfaatkan Claude untuk pencurian dan pemerasan data pribadi dalam skala besar. Di periode yang sama, OpenAI dan Google masing-masing juga melaporkan penyalahgunaan ChatGPT dan Gemini oleh aktor ancaman.

Menurut Anthropic, semua ini menunjukkan tren yang mengkhawatirkan: teknologi AI kini menurunkan hambatan teknis yang sebelumnya membatasi kelompok peretas amatir ataupun bermodal kecil.

 

Ancaman Baru di Era AI Otonom

“Barier untuk menjalankan serangan siber tingkat lanjut kini turun drastis,” jelas Anthropic.

Dengan kemampuan AI seperti Claude, bahkan kelompok yang tidak memiliki keahlian teknis tinggi kini bisa melakukan serangan rumit yang sebelumnya hanya mungkin dilakukan oleh tim peretas elit. AI mampu:

  • menganalisis sistem target,
  • membuat kode eksploitasi,
  • memproses data curian dalam jumlah besar,
  • dengan efisiensi yang melampaui kecepatan manusia.

Kampanye GTG-1002 memberikan gambaran jelas bagaimana AI dapat menjadi alat serangan yang sangat berbahaya jika jatuh ke tangan yang salah, sekaligus menjadi peringatan keras bagi pemerintah, perusahaan, dan pengguna umum bahwa lanskap ancaman siber sedang berubah cepat.

Bagikan artikel ini

Komentar ()

Video Terkait