“Kita memasuki era keamanan siber dan masyarakat di mana AI adalah perisai dan Dark AI adalah pedangnya,” imbuh dia.
Apa itu Dark AI?
Dalam bidang AI generatif yang sedang berkembang pesat, istilah “Dark AI” membutuhkan definisi yang tepat. Menurut Lozhkin dan Kaspersky, ini bukan sekadar upaya mengelabui AI resmi seperti ChatGPT atau Gemini agar menghasilkan output yang berbahaya. Meskipun “jailbreak” semacam itu memang ada, Dark AI merupakan kreasi yang jauh lebih disengaja dan berbahaya.
Kaspersky mendefinisikan Dark AI sebagai penerapan lokal atau jarak jauh model bahasa besar (LLM) tanpa batasan, kerangka kerja lengkap, atau sistem chatbot yang sengaja dibangun, dimodifikasi, dan digunakan untuk tujuan jahat, tak etis, atau tidak sah. “Yang kami sebut Dark AI adalah LLM atau kerangka kerja atau chatbot yang berfungsi penuh atau apapun yang diciptakan khusus untuk melakukan aktivitas jahat di dunia maya,” tutur Lozhki dalam pidatonya.
Kemudian dia menjelaskan, sistem ini beroperasi sepenuhnya di luar batasan standar keamanan, kepatuhan, atau kontrol tata kelola, yang memungkinkan penipuan, manipulasi, dan serangan siber tanpa pengawasan. Fokusnya langsung pada aktivitas kejahatan siber; AI yang membantu menciptakan senjata, misalnya jatuh ke dalam “kegelapan lain” tetapi bukan yang dilacak oleh para peneliti Kaspersky.
Ancaman Dark AI Bermula pada 2023
Ancaman ini bermula pada pertengahan 2023 lalu dengan munculnya apa yang disebut sebagai “Black Hat GPT”. Iterasi awal seperti WormGPT seringkali rumit, menghasilkan kode berbahaya yang tak berfungsi atau mudah dideteksi.
“Mereka memberi Anda kode yang sangat, sangat buruk... yang akan langsung terdeteksi oleh antivirus apapun,” kenang Lozhkin. Namun, lanskap telah berkembang dengan sangat cepat. Alat-alat Dark AI kini canggih dan terspesialisasi.
Contoh yang dikenal publik antara lain DarkBard, FraudGPT, dan Xanthorox, yang dirancang untuk mendukung pelbagai kejahatan siber. Xanthorox, misalnya, adalah kerangka kerja yang berfungsi penuh dan tersedia untuk berlangganan (Lozhkin menyebutkan harga sekitar US$200 per bulan), menawarkan modul khusus untuk pembuatan kode, pemalsuan suara, dan phishing.
Tangkapan layar dari kerangka kerja tersebut menunjukkan seorang pengguna meminta “ransomware berteknologi tinggi dengan empat metode enkripsi berbeda”, yang bisa menerobos Windows Defender, sebuah permintaan yang diklaim dapat dipenuhi oleh alat tersebut. Yang lebih memprihatinkan lagi adalah model AI privat dan semi-privat yang ada di forum-forum bawah tanah eksklusif.
Akses ke LLM yang sangat terspesialisasi ini, dioptimalkan untuk tugas-tugas spesifik seperti phishing atau pembuatan malware, merupakan hak istimewa yang hanya diperuntukkan bagi penjahat siber tepercaya dan bereputasi tinggi. “Anda perlu membangun reputasi di forum-forum bawah tanah untuk mendapatkan akses ke sistem ini,” jelas Lozhkin.
Sistem ini ampuh karena dilatih dengan asupan pengetahuan berbahaya terbaru yang berkelanjutan. Lozhkin mengungkapkan mekanisme mereka. “Mereka mengurai informasi ini. Teknik terbaru dari blog publik, dari para peneliti, dan sebagian besar kode dari GitHub,” beber dia.
Hal ini telah memunculkan beberapa aplikasi berbahaya utama termasuk Pembuatan Kode Lanjutan, Phishing Hiper-Realistis, dan Deepfake Suara dan Video. Dark AI bertindak sebagai asisten yang andal bagi para pengembang terampil, yang secara dramatis meningkatkan produktivitas mereka.
Sistem ini unggul dalam menciptakan malware polimorfik—kode yang terus berubah untuk menghindari deteksi. “Jika Anda menggunakan dark eye, Anda cukup memberikan kode dan kode tersebut akan segera mengubahnya menjadi sesuatu yang sangat sulit dideteksi,” tutur Lozhkin.
Sementara itu, terkait kendala bahasa, yang dulunya merupakan tanda awal upaya phishing, telah dihapus secara efektif. Dark AI menciptakan teks yang fasih, persuasif, dan tata bahasanya sempurna, bahkan untuk penyerang yang bukan penutur asli bahasa Inggris.
LLM ini dilatih pada sejumlah besar email perusahaan, memungkinkan mereka meniru nada dan gaya chief executive officer (CEO) atau tokoh tepercaya lainnya dengan akurasi yang luar biasa. “Visi ini tampak begitu nyata, sehingga saya rasa hanya orang yang berprofesi sebagai peneliti keamanan siber pun dapat mengetahui bahwa ini adalah sebuah visi,” Lozhkin memperingatkan.
Adapun pembuatan deepfake yang meyakinkan kini menjadi alat kunci untuk rekayasa sosial, di mana penyerang bisa menggunakan sampel suara untuk menghasilkan klon suara secara real-time guna panggilan dukungan pelanggan atau panggilan eksekutif palsu. Serangan baru-baru ini yang dikaitkan dengan kelompok BlueNoroff menggunakan panggilan Zoom palsu dengan para eksekutif deepfake untuk menipu karyawan, sebuah contoh nyata dari ancaman ini.
“Sebagai peneliti keamanan, saya tidak lagi mempercayai video,” kata Lozhkin. “Sama sekali tidak. Video apa pun bisa dipalsukan saat ini,” tambah dia.
(far/wep)
































