IBM perkenalkan layanan keamanan otonom untuk menghadapi ancaman siber berbasis AI
Di tengah percepatan adopsi kecerdasan buatan yang juga dimanfaatkan untuk memperkuat serangan siber, IBM memperkenalkan sebuah layanan keamanan baru yang dirancang untuk menandingi kecepatan dan skala ancaman berbasis AI. Pada Rabu lalu, perusahaan teknologi tersebut meluncurkan program keamanan otonom berbasis agen (autonomous agentic security), sebuah langkah yang datang di saat banyak organisasi berupaya mengukur kesiapan mereka menghadapi dampak model keamanan siber Mythos milik Anthropic. Selain platform teknologinya, IBM juga mengumumkan layanan asesmen baru dari unit IBM Consulting. Layanan ini memanfaatkan tim konsultan manusia untuk membantu perusahaan menilai kesiapan mereka terhadap ancaman yang digerakkan oleh agen AI. Melalui asesmen tersebut, organisasi dapat memperoleh visibilitas yang lebih jelas terhadap celah keamanan, kelemahan kebijakan internal, serta berbagai bentuk paparan risiko yang muncul akibat penggunaan dan integrasi AI di lingkungan mereka. IBM Autonomous Security sendiri diposisikan sebagai layanan terpisah yang mengandalkan agen-agen AI untuk menganalisis paparan pada perangkat lunak dan lingkungan runtime. Agen-agen ini dirancang untuk memetakan jalur-jalur potensial yang dapat dieksploitasi di dalam arsitektur keamanan perusahaan, memperbaiki “kebersihan siber” (cyber hygiene), serta menegakkan kebijakan keamanan secara lebih konsisten dan otomatis. Peluncuran ini terjadi di tengah upaya luas di kalangan korporasi untuk merapikan dan memodernisasi lingkungan TI mereka, menyusul kehadiran model keamanan siber Mythos dari Anthropic dan model-model khusus dari OpenAI yang ditujukan untuk mendukung operasi keamanan siber defensif. Meski para penyedia teknologi berupaya membatasi perilisan model-model paling canggih, Mythos telah menjadi semacam sirene peringatan bagi banyak perusahaan: model tersebut mampu menemukan ribuan kerentanan zero-day—cacat perangkat lunak yang belum diketahui vendor maupun pengembang, namun berpotensi dimanfaatkan peretas—sekaligus menunjukkan secara rinci bagaimana kerentanan itu dapat dieksploitasi. Kebutuhan Mendesak untuk Merespons Kerentanan “Sekarang kita berhadapan dengan pengguna jahat—kriminal—yang dapat memanfaatkan temuan-temuan ini dalam kecepatan mesin,” ujar Troy Leach, chief strategy officer di Cloud Security Alliance. Menurutnya, ke depan, operasi keamanan di dalam perusahaan tidak lagi bisa mengandalkan pendekatan manual semata. Mereka harus mengadopsi kapabilitas keamanan otonom untuk menandingi volume dan kecepatan ancaman yang didorong oleh AI. Leach menekankan bahwa ketika model AI menurunkan ambang keahlian teknis yang dibutuhkan untuk melancarkan serangan siber, produk dan layanan keamanan harus berevolusi. Sistem-sistem tersebut, katanya, perlu “melawan kecepatan tersebut dengan tingkat respons otonom tertentu dan melakukan eskalasi ke staf keamanan manusia untuk memastikan tindakan para agen tidak menyimpang.” Dengan kata lain, otomatisasi harus berjalan beriringan dengan pengawasan manusia yang ketat. IBM Autonomous Security menjadi salah satu contoh produk yang dirancang untuk mencegah pelaku jahat mengeksploitasi model AI sekaligus menormalkan perilaku TI yang tidak lazim sehingga luput dari deteksi tradisional. “Ada optimisme bahwa AI dapat membantu arsitek TI dan CISO beserta tim keamanan mereka memiliki pemahaman yang lebih menyeluruh, dengan visibilitas nyata terhadap posture keamanan mereka saat ini,” kata Leach. Dengan kemampuan analitik yang lebih dalam dan cakupan yang lebih luas, AI diharapkan dapat mengungkap pola risiko yang sebelumnya tersembunyi. Namun, adopsi sistem semacam ini bukannya tanpa tantangan. Perusahaan perlu memiliki keahlian AI yang memadai untuk mengimplementasikan dan mengoperasikan agen-agen otonom tersebut secara benar, sekaligus memastikan bahwa agen tetap berada dalam koridor kebijakan dan tujuan bisnis. Di sisi lain, faktor biaya juga menjadi pertimbangan strategis. Organisasi, kata Leach, harus “memastikan bahwa pengeluaran untuk mengonsumsi sumber daya AI sebanding dengan investasi keamanan” yang mereka harapkan. Ia mengingatkan bahwa biaya pemrosesan untuk model-model AI canggih dapat melonjak dengan cepat, mengingatkan pada masa-masa awal komputasi awan ketika belum tersedia guardrail untuk mengendalikan penskalaan sumber daya secara otomatis. “Biaya pemrosesan bisa sangat mahal, mirip dengan masa-masa awal komputasi awan ketika belum ada pembatas (guardrail) untuk penskalaan sumber daya secara otomatis, yang akhirnya berujung pada tagihan bulanan yang sangat tinggi dari penyedia layanan,” ujarnya. Dalam konteks ini, peluncuran layanan keamanan otonom IBM bukan hanya soal teknologi, tetapi juga tentang bagaimana perusahaan menyeimbangkan kebutuhan perlindungan dengan disiplin finansial di era AI yang kian agresif.