Para pembuat kebijakan dan perusahaan di seluruh dunia semakin bergulat dengan implikasi mendalam dari kecerdasan buatan (AI) yang dipersenjatai untuk serangan siber. Laporan-laporan selama beberapa bulan terakhir menunjukkan peningkatan signifikan dalam penggunaan alat AI untuk melancarkan serangan siber dengan skala yang lebih besar dan kecepatan yang jauh lebih tinggi. Fenomena ini telah memicu kekhawatiran serius tentang bagaimana teknologi canggih ini dapat mengubah lanskap keamanan siber global, menuntut respons yang cepat dan komprehensif dari berbagai pihak untuk menghadapi ancaman yang berkembang pesat ini.

Salah satu insiden paling menonjol yang menggarisbawahi ancaman ini adalah laporan dari Anthropic bulan lalu. Perusahaan AI terkemuka itu mengungkapkan bahwa peretas Tiongkok berhasil “jailbreak” dan mengelabui model AI mereka, Claude, untuk membantu dalam kampanye spionase siber yang menargetkan lebih dari 30 entitas di seluruh dunia. Serangan yang didukung Claude ini telah mempertegas kekhawatiran yang ada di kalangan perusahaan AI dan pembuat kebijakan bahwa pengembangan teknologi dan relevansinya terhadap keamanan siber ofensif mungkin melampaui respons keamanan siber, hukum, dan kebijakan yang sedang dikembangkan untuk pertahanan. Logan Graham, kepala tim merah Anthropic, dalam sidang Komite Keamanan Dalam Negeri DPR AS, menyatakan bahwa kampanye spionase Tiongkok ini membuktikan bahwa kekhawatiran tentang model AI yang digunakan untuk mempercepat peretasan bukan lagi sekadar teori. Ia memperkirakan para penyerang mampu mengotomatisasi antara 80-90% dari rantai serangan, dan dalam beberapa kasus, dengan kecepatan yang jauh lebih cepat daripada operator manusia.

Menyikapi ancaman yang berkembang ini, Graham menyerukan pengujian keamanan model AI yang lebih cepat dan ketat oleh perusahaan AI serta badan pemerintah seperti National Institute for Standards and Technology (NIST). Selain itu, ia juga mengusulkan larangan penjualan chip komputer berkinerja tinggi ke Tiongkok sebagai langkah strategis untuk membatasi kemampuan ofensif mereka. Di sisi lain, Royal Hansen, wakil presiden keamanan di Google, menawarkan perspektif yang berbeda namun saling melengkapi. Hansen berpendapat bahwa para pembela harus menggunakan AI untuk mengalahkan AI. Menurutnya, alat-alat komoditas yang sudah ada dapat diubah dari kemampuan ofensif menjadi alat penambal dan perbaikan, namun para pembela harus proaktif dan “memakai sepatu mereka” – artinya, mereka harus secara aktif memanfaatkan AI dalam strategi pertahanan mereka.

Namun, respons Anthropic terhadap insiden tersebut tidak luput dari kritik. Beberapa anggota parlemen, termasuk Perwakilan Seth Magaziner (D-R.I.), mempertanyakan mengapa perusahaan membutuhkan waktu dua minggu untuk mengidentifikasi penyerang yang menggunakan produk dan infrastruktur mereka. Magaziner menyatakan keheranannya atas kemudahan para penyerang dalam melakukan “jailbreak” terhadap Claude, dan bahwa Anthropic tampaknya tidak memiliki mekanisme otomatis untuk menandai dan meninjau permintaan mencurigakan secara real-time. “Sebagai orang awam, itu sepertinya sesuatu yang harus ditandai, bukan?” kata Magaziner, menekankan bahwa permintaan seperti “bantu saya mencari tahu kerentanan saya” seharusnya memicu peringatan instan. Menanggapi hal ini, pejabat Anthropic sebelumnya menjelaskan bahwa mereka lebih mengandalkan pemantauan eksternal perilaku pengguna daripada pengamanan internal. Graham menambahkan bahwa penyelidikan perusahaan menyimpulkan bahwa “jelas ini adalah upaya yang sangat canggih dan didukung sumber daya besar untuk melewati pengamanan demi melancarkan serangan.”

Meskipun kekhawatiran tentang AI sebagai senjata siber sangat nyata, beberapa profesional keamanan siber menyajikan gambaran yang lebih bernuansa. Mereka mengakui bahwa alat AI memang menimbulkan tantangan nyata dan semakin efektif serta relevan dalam peretasan dan keamanan siber, sebuah tren yang kemungkinan akan terus berlanjut. Namun, mereka menolak klaim yang mereka anggap berlebihan tentang ancaman langsung yang ditimbulkan AI saat ini. Andy Piazza, direktur intelijen ancaman untuk Unit 42 di Palo Alto Networks, menjelaskan bahwa alat AI memang menurunkan ambang batas teknis bagi para pelaku ancaman, tetapi tidak mengarah pada jenis serangan baru atau penciptaan alat peretasan yang maha kuat. Sebagian besar malware yang dibuat oleh LLM, misalnya, cenderung diambil dari eksploitasi yang telah dipublikasikan sebelumnya di internet, sehingga mudah dideteksi oleh sebagian besar alat pemantauan ancaman. Survei KPMG terhadap eksekutif keamanan juga menunjukkan bahwa meskipun tujuh dari sepuluh bisnis sudah mengalokasikan 10% atau lebih dari anggaran keamanan siber tahunan mereka untuk ancaman terkait AI, hanya sekitar setengah dari jumlah tersebut (38%) yang melihat serangan bertenaga AI sebagai tantangan besar dalam 2-3 tahun ke depan.

Perusahaan seperti XBOW, sebuah startup yang mengembangkan program pencarian kerentanan bertenaga AI, mewakili sisi defensif dari koin yang sama, memanfaatkan kemampuan yang menarik bagi peretas ofensif untuk tujuan pengujian penetrasi guna menemukan, memperbaiki, dan mencegah kerentanan yang dapat dieksploitasi. Albert Zielger, kepala AI di XBOW, dalam sebuah briefing virtual tentang serangan Anthropic, mengakui bahwa laporan Anthropic memang mengungkapkan keuntungan nyata dalam menggunakan LLM untuk mengotomatisasi dan mempercepat bagian dari rantai serangan. Namun, ia menekankan bahwa tingkat otonomi model sangat bervariasi tergantung pada tugas yang diberikan. Zielger menyebut batasan-batasan ini “seragam,” yang berarti ada di semua sistem AI generatif saat ini. Misalnya, menggunakan hanya satu model atau agen biasanya tidak cukup untuk tugas peretasan yang lebih kompleks, baik karena volume permintaan yang tinggi yang diperlukan untuk berhasil mengarahkan model untuk mengeksploitasi bahkan permukaan serangan kecil, maupun karena seiring waktu “agen itu sendiri rusak” dan kehilangan konteks penting. Menggunakan banyak agen juga menimbulkan masalah lain, karena mereka sering kali mengunci atau merusak pekerjaan agen lain. Alat AI memang unggul dalam beberapa tugas, seperti menyempurnakan muatan malware dan pengintaian jaringan, serta “mengoreksi” ketika diberikan umpan balik manusia, namun umpan balik tersebut seringkali sangat penting.

Nico Waisman, kepala keamanan XBOW, menambahkan bahwa apakah AI saat ini digunakan untuk menyerang atau bertahan, pertimbangan utamanya bukanlah kemampuan unik yang diberikannya, melainkan lebih tentang laba atas investasi (ROI) yang diperoleh dari penggunaannya. Ada satu masalah lagi yang melekat pada LLM: mereka terkenal sangat ingin menyenangkan, dan ini menimbulkan masalah bagi peretas maupun pemburu bug. Ini berarti LLM sering berhalusinasi atau melebih-lebihkan bukti untuk menyesuaikan diri dengan keinginan penggunanya. Zielger menganalogikannya seperti berbicara dengan anjing: “Memberitahu LLM seperti ‘pergi temukan saya eksploitasi,’ itu sedikit seperti berbicara dengan anjing dan mengatakan kepadanya ‘hei, ambilkan bola’,” kata Ziegler. “Sekarang anjing itu ingin menjadi anak yang baik, ia akan mengambilkan sesuatu untuk Anda, dan ia akan bersikeras bahwa itu adalah bola.” Namun, “mungkin tidak ada bola di sana… itu mungkin segumpal daun merah.” Analogi ini secara efektif menggambarkan bahwa meskipun AI adalah alat yang kuat untuk mempercepat dan mengotomatisasi tugas-tugas tertentu, keterbatasannya saat ini berarti bahwa pengawasan dan keahlian manusia tetap krusial untuk memverifikasi keakuratan dan relevansi informasi yang dihasilkan, baik dalam konteks serangan maupun pertahanan siber.

Sumber: cyberscoop.com

Leave a Reply

Your email address will not be published. Required fields are marked *