Ancaman Baru: Slopsquatting AI di Rantai Pasokan

May 3, 2025 | by Luna
“`html

Ancaman Baru dalam Rantai Pasokan Perangkat Lunak

Para ahli keamanan siber baru-baru ini mengeluarkan peringatan serius mengenai ancaman baru dalam rantai pasokan perangkat lunak yang dikenal sebagai Slopsquatting. Ancaman ini muncul akibat model AI generatif yang secara keliru menyarankan ketergantungan yang tidak ada. Penelitian yang dilakukan oleh tim dari University of Texas di San Antonio, Virginia Tech, dan University of Oklahoma mengungkapkan bahwa halusinasi paket sering terjadi dalam kode yang dihasilkan oleh Model Bahasa Besar (LLM). Hal ini dapat dimanfaatkan oleh aktor jahat untuk mengeksploitasi sistem. Para peneliti menyoroti bahwa ketergantungan bahasa pemrograman yang banyak digunakan seperti Python dan JavaScript pada repositori paket terpusat dan perangkat lunak sumber terbuka, ditambah dengan meningkatnya penggunaan LLM penghasil kode, telah memperkenalkan ancaman baru bagi rantai pasokan perangkat lunak: halusinasi paket.

Analisis Model Penghasil Kode

Analisis terhadap 16 model penghasil kode, termasuk GPT-4, GPT-3.5, CodeLlama, DeepSeek, dan Mistral, menunjukkan bahwa sekitar 20% dari paket yang direkomendasikan adalah palsu. Pelaku ancaman dapat mendaftarkan paket halusinasi ini dan menggunakannya untuk menyebarkan kode berbahaya. Analisis dari penelitian tersebut memperingatkan bahwa jika paket halusinasi menjadi sangat direkomendasikan oleh alat AI dan penyerang mendaftarkan nama tersebut, hal itu dapat menyebabkan kompromi yang meluas. Analisis tersebut juga menunjukkan bahwa banyak pengembang mempercayai keluaran yang dihasilkan AI tanpa validasi menyeluruh, meninggalkan peluang signifikan untuk eksploitasi.

Risiko dan Langkah Perlindungan

Istilah Slopsquatting, yang diciptakan oleh Seth Larson, seorang pengembang keamanan di Python Software Foundation (PSF), menarik paralel dengan teknik typosquatting. Berbeda dengan typosquatting, yang mengandalkan kesalahan pengguna, Slopsquatting mengeksploitasi kesalahan yang dibuat oleh model AI. Studi tersebut menemukan bahwa 19,7% (205.000 paket) dari paket yang direkomendasikan dalam sampel uji adalah palsu. Model sumber terbuka seperti DeepSeek dan WizardCoder lebih sering berhalusinasi, rata-rata 21,7%, dibandingkan dengan model komersial seperti GPT-4, yang memiliki tingkat halusinasi 5,2%. CodeLlama diidentifikasi sebagai pelanggar terburuk, berhalusinasi lebih dari sepertiga dari outputnya, sementara GPT-4 Turbo berkinerja terbaik dengan hanya 3,59% halusinasi.

Halusinasi paket ini menimbulkan risiko signifikan karena branda persisten, berulang, dan meyakinkan. Ketika para peneliti menjalankan kembali 500 prompt yang sebelumnya menghasilkan paket halusinasi, 43% dari halusinasi muncul kembali secara konsisten dalam 10 pengulangan berturut-turut, dengan 58% muncul dalam lebih dari satu pengulangan. Studi tersebut menyimpulkan bahwa ketekunan ini menunjukkan bahwa sebagian besar halusinasi bukanlah acak tetapi artefak yang dapat diulang dari cara model merespons prompt tertentu, meningkatkan nilai branda bagi penyerang. Selain itu, nama paket halusinasi ini ditemukan “secara semantik meyakinkan,” dengan 38% menunjukkan kemiripan string moderat dengan paket nyata, menunjukkan struktur penamaan yang serupa. Hanya 13% dari halusinasi adalah kesalahan ketik sederhana, menurut Socket.

Meskipun analisis Socket maupun makalah penelitian tidak melaporkan adanya kasus nyata Slopsquatting, keduanya menyarankan untuk mengambil langkah-langkah perlindungan. Socket brandomendasikan agar pengembang menggunakan pemindai ketergantungan sebelum produksi dan runtime untuk mendeteksi paket berbahaya. Terburu-buru melalui pengujian keamanan adalah salah satu alasan model AI jatuh ke dalam halusinasi. Baru-baru ini, OpenAI menghadapi kritik karena secara signifikan mengurangi waktu dan sumber daya pengujian modelnya, membuat branda terpapar ancaman yang substansial.

“`
Recommended Article