
Di tengah lanskap digital yang terus berkembang, model akal imitasi (AI) yang digunakan dalam AI generatif telah bertransformasi dari alat bantu produktivitas menjadi ancaman siber dan operasi informasi. Gagasan tentang ini tampaknya semakin nyata.
Trend Micro pada 2024 melaporkan deepfake panggilan video sukses jadi kasus penipuan benilai $25 juta di Hong Kong yang meniru direktur keuangan perusahaan. Kasus deepfake audio dalam pemilu Slovakia 2023, meski bukan masalah utama, jadi pengingat ancaman di ranah publik.
Bahkan, Sam Altman, CEO OpenAI yang membuat ChatGPT, baru-baru ini menyatakan di akun X tentang ancaman siber lewat AI, “Saya tidak pernah menganggap serius teori internet mati, tapi sepertinya sekarang sudah ada banyak sekali akun Twitter yang dijalankan oleh LLM.”
Adopsi teknologi LLM (Large Language Model) telah mengubah paradigma dunia siber, memperkenalkan metode pertahanan dan serangan yang lebih canggih. Baik untuk bertahan di dunia keamanan siber, maupun untuk melakukan penyerangan, keduanya bisa memanfaatkan LLM.
Bayangkan bagaimana LLM bisa digunakan untuk mempersenjatai pasukan siber. Aktor-aktor siber dapat mengeksploitasi LLM untuk membuat malware setidaknya dalam tiga cara: Memanipulasi LLM yang ada, membeli LLM yang didesain khusus, atau melatih sendiri LLM untuk penyerangan.
Sejak era analog, kampanye strategis dan terorkestrasi oleh pasukan siber yang disponsori elite sudah melancarkan propaganda di media sosial. Tujuannya menyetir opini publik ke arah haluan yang menguntungkan mereka. Dengan AI, upaya mereka bisa semakin agresif.
Otomatisasi Meningkatkan Ancaman Siber
Salah satu implikasi paling signifikan dari penggunaan LLM adalah peningkatan otomatisasi serangan siber. Berdasarkan laporan dari The Tech Arena, LLM kini berfungsi sebagai “mesin utama” di balik malware generasi baru. Ancaman siber bisa meningkat berkali-kali lipat.
Model LLM bisa berperan pada setiap tahap serangan, mulai dari pengintaian, penelitian kerentanan, hingga pengembangan malware sesuai target yang spesifik. LLM mampu menganalisis kode sumber (source code) dengan cepat dan mengidentifikasi celah keamanan yang rentan eksploitasi.
Lebih lanjut, model ini dapat menghasilkan varian malware yang unik dan polimorfik, sehingga menantang sistem antivirus konvensional yang mengandalkan basis data pola serangan lama.
Misalnya, aktor ancaman dapat memanfaatkan AI untuk membuat skrip phishing menarget karyawan di sektor perbankan. Dengan perintah sederhana, LLM dapat menghasilkan pesan yang sangat spesifik, terstruktur dengan bahasa formal, dan menyertakan jargon keuangan yang kredibel.
Selain itu, LLM dapat memfasilitasi penulisan kode berbahaya yang secara otomatis memindai jaringan untuk menemukan server yang memiliki kerentanan, memungkinkan serangan dilakukan tanpa keahlian teknis tingkat lanjut dari penyerang.
Pengembangan Bot Media Sosial yang Canggih
Di ranah operasi informasi, AI dengan model LLM digunakan untuk memanipulasi opini publik di platform seperti X (Twitter). Sebuah studi yang diterbitkan di arXiv menunjukkan LLM dapat digunakan dalam pengembangan jaringan bot media sosial dengan tingkat realisme luar biasa.
Tidak seperti bot-bot sebelumnya yang kaku, bot dengan LLM dapat menciptakan persona digital yang lengkap dengan hobi, opini, dan bahkan selera humor. Kemampuan ini memungkinkan bot meniru pola linguistik, gaya bahasa, dan kecenderungan politik pengguna sungguhan.
Selama kampanye politik, jaringan bot bertenaga LLM dapat membanjiri linimasa dengan unggahan dan komentar yang mendukung narasi tertentu. Bot-bot ini dapat terlibat dalam percakapan yang meyakinkan, membalas komentar, dan bahkan berdebat satu sama lain.
Mereka bisa menciptakan ilusi dukungan massa yang kuat. Akibatnya, sulit bagi pengguna awam untuk membedakan antara akun asli dan bot yang sengaja diprogram untuk memanipulasi opini publik.
Ancaman Disinformasi Skala Besar
Laporan Canadian Centre for Cyber Security menyoroti bahaya signifikan dari generator teks berbasis LLM. Dengan kemampuan LLM memproduksi konten “kredibel” dalam volume besar, disinformasi makin sulit dilacak dan dibedakan dari informasi yang sah.
Tren ini dapat mengikis kepercayaan publik terhadap informasi di berbagai platform. Bayangkan saat LLM dimanfaatkan untuk menyusun artikel berita palsu yang terlihat profesional dan kredibel, lengkap dengan judul yang provokatif dan narasi yang kohesif.
Artikel-artikel ini kemudian dapat disebarkan secara viral melalui media sosial dan forum daring, sehingga mempersulit proses verifikasi fakta dan merusak integritas informasi.
Integrasi LLM dan Eksploitasi Zero-Day
Kemampuan LLM menganalisis kerentanan secara efisien menjadi kerangka kerja ofensif berbasis AI yang dinamai HexStrike-AI. Awalnya dirancang untuk pengujian penetrasi (pentesting), Check Point melaporkan kini disalahgunakan aktor jahat.
Alat ini memungkinkan peretas mengurangi waktu eksploitasi kerentanan zero-day, yang sebelumnya butuh berhari-hari menjadi hanya dalam hitungan menit. HexStrike-AI mengotomatiskan seluruh siklus serangan, mulai dari pengintaian hingga eksploitasi.
Hal ini menurunkan ambang batas keahlian yang dibutuhkan untuk melakukan serangan siber yang canggih. Kini siapapun bisa ikut menyerang—menandai pergeseran besar dalam lanskap ancaman siber, saat kecepatan eksploitasi menjadi faktor penentu.
Strategi Mitigasi dan Respons
Menanggapi tantangan ini, Microsoft Security menggarisbawahi peran ganda LLM: Sebagai alat bagi penyerang dan sebagai pertahanan bagi ahli keamanan. Kondisi ini menciptakan perlombaan senjata digital di mana kedua belah pihak menggunakan teknologi AI.
Berikut adalah poin-poin utama yang disarankan Microsoft:
- Kolaborasi: Microsoft menekankan pentingnya kolaborasi dengan industri dan komunitas riset, untuk mengintegrasikan taktik dan teknik berbasis LLM ke dalam kerangka kerja keamanan yang ada.
- Pentingnya AI sebagai Pertahanan: Microsoft menekankan bahwa para ahli keamanan harus menggunakan AI, termasuk LLM, untuk mengimbangi kecanggihan serangan yang juga menggunakan AI. Ini bukan lagi pertarungan antara manusia dan mesin, melainkan antara AI yang menyerang dan AI yang bertahan.
- Deteksi Anomali: LLM dapat digunakan untuk menganalisis pola serangan yang kompleks dan mendeteksi anomali yang mungkin tidak terlihat oleh manusia atau sistem keamanan tradisional.
LLM telah menjadi elemen fundamental dalam pertempuran digital. Kemampuannya menghasilkan konten realistis dan mengotomatisasi serangan siber memaksa profesional keamanan dan masyarakat umum untuk merevisi pendekatan terhadap keamanan dan literasi digital.
Oleh karena itu, semakin penting bagi setiap individu untuk selalu bersikap kritis terhadap informasi yang dikonsumsi secara daring.
*Photo by Riku Lu via Unsplash
Komentar Anda?