Waspada Dark AI Mengintai

Waspada Dark AI Mengintai, Senjata Baru Para Kriminal Siber

Di tengah pesatnya perkembangan kecerdasan buatan (AI) yang membawa banyak manfaat, muncul bayangan gelap yang mengkhawatirkan: Dark AI. Perusahaan keamanan siber Kaspersky memperingatkan bahwa waspada Dark AI mengintai adalah ancaman baru yang dirancang khusus untuk memicu kejahatan digital.

Kepala Tim Riset Analisis Global Kaspersky, Sergey Lozhkin, menjelaskan bahwa Dark AI adalah model bahasa besar (large language model/LLM) yang beroperasi tanpa pengawasan atau aturan etika. Karena itulah, AI jenis ini dapat disalahgunakan untuk tujuan merugikan.

“Kita berada dalam zaman di mana AI dapat berfungsi sebagai perisai, tetapi Dark AI juga berperan sebagai pedang,” kata Lozhkin, menekankan dualitas peran AI dalam keamanan siber saat ini.

Modus Operandi Canggih: dari Malware hingga Deepfake

Dark AI digunakan untuk berbagai kejahatan, mulai dari pembuatan malware, perancangan email phishing yang sangat meyakinkan, hingga pembuatan deepfake atau manipulasi video dan suara palsu untuk penipuan.

Contoh Dark AI yang sudah beredar termasuk Black Hat GPT, versi GPT yang dimodifikasi untuk kejahatan digital. Ada juga WormGPT, DarkBard, FraudGPT, dan Xanthorox yang muncul sejak 2023. Alat-alat ini memfasilitasi penipuan, peretasan, dan operasi siber otomatis dengan sangat luwes dan efektif.

Di Balik Layar: Kelompok Kriminal Canggih

Kaspersky mengungkapkan bahwa pengguna Dark AI bukan sekadar pelaku kriminal biasa, melainkan merupakan kelompok kriminal terorganisir yang cenderung melaksanakan operasi siber yang kompleks dan canggih.

Temuan ini senada dengan laporan OpenAI yang mengklaim telah memblokir lebih dari 20 aktivitas mencurigakan yang menggunakan platform mereka untuk tujuan jahat. Para pelaku ini sangat profesional, bahkan mampu menyamarkan identitas mereka dan membuat konten dalam berbagai bahasa untuk menembus filter keamanan konvensional.

Krisis Etika dan Solusi Pencegahan

Lozhkin menyoroti masalah inti dari waspada Dark AI mengintai: AI tidak memiliki set moral dan etika. AI hanya punya satu orientasi utama, yaitu mematuhi perintah yang diberikan tanpa membedakan mana yang benar dan mana yang salah.

“AI tidak secara inheren dapat membedakan yang benar dan yang salah, melainkan alat yang mengikuti perintah,” kata Lozhkin.


Untuk menghadapi ancaman ini, ia menekankan pentingnya bagi organisasi dan individu untuk memperkuat higiene keamanan siber. Selain itu, diperlukan investasi pada sistem deteksi ancaman yang didukung oleh AI itu sendiri dan terus belajar bagaimana teknologi ini bisa dieksploitasi. Dengan begitu, kita bisa membangun pertahanan yang lebih kuat di era kecerdasan buatan. Baca berita lain di sini.