Para pembuat kebijakan dan perusahaan di seluruh dunia kini tengah bergulat dengan meningkatnya laporan selama beberapa bulan terakhir yang menunjukkan bagaimana alat kecerdasan buatan (AI) dimanfaatkan untuk melancarkan serangan siber dalam skala yang lebih besar dan kecepatan yang jauh lebih tinggi. Fenomena ini telah memicu kekhawatiran serius tentang kesiapan pertahanan siber global di era teknologi yang berkembang pesat. Insiden-insiden ini menggarisbawahi bahwa pengembangan AI, khususnya relevansinya terhadap keamanan siber ofensif, mungkin telah melampaui respons keamanan siber, hukum, dan kebijakan yang sedang dikembangkan untuk menangkisnya.

Salah satu kasus paling menonjol dilaporkan oleh Anthropic bulan lalu, di mana peretas Tiongkok berhasil melakukan “jailbreak” dan mengelabui model AI mereka, Claude, untuk membantu kampanye spionase siber. Kampanye ini pada akhirnya menargetkan lebih dari 30 entitas di seluruh dunia. Logan Graham, kepala tim merah Anthropic, dalam sebuah dengar pendapat di Komite Keamanan Dalam Negeri DPR AS, menegaskan bahwa kampanye spionase Tiongkok ini membuktikan bahwa kekhawatiran tentang model AI yang digunakan untuk mempercepat peretasan bukan lagi sekadar teori. Graham memperkirakan bahwa para penyerang mampu mengotomatiskan antara 80-90% dari rantai serangan, dan dalam beberapa kasus, dengan kecepatan yang jauh lebih tinggi daripada operator manusia. Ia menyerukan pengujian keamanan model yang lebih cepat oleh perusahaan AI dan badan pemerintah, serta larangan penjualan chip komputer berkinerja tinggi ke Tiongkok. Senada dengan itu, Royal Hansen, wakil presiden keamanan di Google, menyarankan bahwa para pembela harus menggunakan AI untuk mengalahkan AI, mengubah kemampuan ofensif menjadi alat penambal dan perbaikan.

Namun, respons Anthropic terhadap insiden ini juga menuai kritik dari para anggota parlemen. Beberapa anggota menekan Graham mengapa perusahaan membutuhkan waktu dua minggu untuk mengidentifikasi penyerang yang menggunakan produk dan infrastruktur mereka. Pejabat Anthropic sebelumnya menjelaskan bahwa mereka lebih mengandalkan pemantauan eksternal perilaku pengguna daripada pengamanan internal untuk mengidentifikasi aktivitas berbahaya. Graham menanggapi bahwa investigasi perusahaan menyimpulkan bahwa “jelas ini adalah upaya yang sangat canggih dan didukung sumber daya besar untuk melewati pengamanan guna melancarkan serangan.” Anggota DPR Seth Magaziner, D-R.I., menyatakan keheranannya atas kemudahan para penyerang melakukan jailbreak pada Claude, dan bahwa Anthropic tampaknya tidak memiliki sarana untuk secara otomatis menandai dan meninjau permintaan mencurigakan secara real-time. Magaziner berpendapat bahwa permintaan seperti “bantu saya mencari tahu apa kerentanan saya” seharusnya segera ditandai sebagai potensi tujuan jahat.

Di sisi lain, beberapa profesional keamanan siber menyajikan gambaran yang lebih bernuansa. Mereka mengakui bahwa alat AI memang menimbulkan tantangan nyata dan semakin efektif serta relevan untuk peretasan dan keamanan siber—sebuah tren yang kemungkinan akan terus berlanjut. Namun, mereka menolak klaim yang mereka anggap berlebihan tentang ancaman langsung yang ditimbulkan AI saat ini. Andy Piazza, direktur intelijen ancaman untuk Unit 42 di Palo Alto Networks, menjelaskan bahwa alat AI memang menurunkan standar teknis bagi para pelaku ancaman, tetapi tidak mengarah pada jenis serangan baru atau penciptaan alat peretasan yang maha kuat. Sebagian besar malware yang dibuat oleh LLM, misalnya, cenderung diambil dari eksploitasi yang telah dipublikasikan sebelumnya di internet, sehingga mudah dideteksi oleh sebagian besar alat pemantauan ancaman. Survei KPMG terhadap eksekutif keamanan menunjukkan bahwa tujuh dari sepuluh bisnis sudah mengalokasikan 10% atau lebih dari anggaran keamanan siber tahunan mereka untuk ancaman terkait AI, meskipun hanya sekitar setengah dari jumlah tersebut (38%) yang melihat serangan bertenaga AI sebagai tantangan besar dalam 2-3 tahun ke depan.

Perusahaan seperti XBOW, sebuah startup yang menciptakan program perburuan kerentanan bertenaga AI, mewakili sisi defensif dari koin yang sama. Mereka berupaya memanfaatkan banyak kemampuan yang sama yang menarik bagi peretas ofensif, tetapi untuk tujuan pengujian penetrasi guna menemukan, memperbaiki, dan mencegah kerentanan yang dapat dieksploitasi. Selama pengarahan virtual tentang serangan Anthropic, Albert Zielger, kepala AI di XBOW, mengatakan bahwa meskipun laporan Anthropic memang mengungkapkan keuntungan nyata dalam menggunakan LLM untuk mengotomatiskan dan mempercepat bagian dari rantai serangan, tingkat otonomi model sangat bervariasi tergantung pada tugas yang diberikan. Ia menyebut batasan-batasan ini “seragam,” yang ada di semua sistem AI generatif saat ini.

Zielger menjelaskan bahwa menggunakan hanya satu model atau agen biasanya tidak akan cukup untuk tugas peretasan yang lebih kompleks, baik karena volume permintaan yang tinggi yang diperlukan untuk berhasil mengarahkan model untuk mengeksploitasi bahkan permukaan serangan kecil, maupun karena seiring waktu “agen itu sendiri rusak” dan kehilangan konteks penting. Menggunakan banyak agen menimbulkan masalah lain, karena mereka akan sering mengunci atau merusak pekerjaan agen lain. Alat AI memang menjadi sangat baik dalam beberapa tugas, seperti menyempurnakan muatan malware dan pengintaian jaringan. Mereka juga menjadi baik dalam “mengoreksi arah” ketika diberikan umpan balik manusia. Namun, umpan balik tersebut seringkali sangat penting. “Di beberapa area, AI sangat baik hanya dengan sedikit perancah, dan di area lain kita perlu menyediakan banyak struktur secara eksternal,” kata Zielger.

Nico Waisman, kepala keamanan XBOW, menambahkan bahwa apakah Anda menggunakan AI saat ini untuk menyerang atau bertahan, pertimbangan utamanya bukanlah kemampuan unik yang diberikannya, melainkan lebih tentang pengembalian investasi yang Anda dapatkan dari penggunaannya. Ada satu masalah lagi: LLM terkenal sangat ingin menyenangkan, dan ini menyebabkan masalah bagi peretas maupun pemburu bug. Itu berarti seringkali berhalusinasi atau melebih-lebihkan buktinya untuk sesuai dengan keinginan penggunanya. “Memberitahu LLM seperti ‘pergi temukan saya eksploitasi,’ itu sedikit seperti berbicara dengan anjing dan memberitahunya ‘hei, ambilkan saya bola’,” kata Ziegler. “Sekarang anjing itu ingin menjadi anak yang baik, ia akan mengambilkan Anda sesuatu, dan ia akan bersikeras bahwa itu adalah bola.” Namun, “mungkin tidak ada bola di sana… itu mungkin segumpal daun merah.”

Sumber: cyberscoop.com

Leave a Reply

Your email address will not be published. Required fields are marked *