Anthropic Mengubah Kebijakan Keamanan AI untuk Tetap Kompetitif
Anthropic, yang sebelumnya dikenal sebagai pelopor dalam keamanan dan tanggung jawab AI, kini melonggarkan kebijakan “Kebijakan Skalabilitas Bertanggung Jawab” mereka. Keputusan ini diambil di tengah tekanan ekonomi dan politik yang memaksa perusahaan untuk lebih fleksibel agar tetap kompetitif di pasar AI yang dinamis. Kepala ilmuwan Anthropic, Jared Kaplan, mengungkapkan kepada Majalah Time bahwa mereka tidak lagi terikat pada komitmen 2023 untuk tidak melatih sistem AI tanpa langkah-langkah keamanan yang memadai. Sebagai gantinya, Anthropic akan lebih transparan dalam menunjukkan performa model mereka dalam uji keamanan.
Langkah ini muncul saat Anthropic mengalami pertumbuhan signifikan dalam penggunaan model Claude, meskipun menghadapi persaingan ketat dari OpenAI. Namun, pertumbuhan ini terancam oleh konflik dengan Departemen Pertahanan AS, yang menganggap Anthropic sebagai “risiko rantai pasokan” karena penolakannya terhadap penggunaan teknologi untuk pengawasan massal atau senjata otonom. Jika masalah ini tidak terselesaikan, Anthropic berisiko kehilangan kontrak pemerintah dan akses ke mitra komersial yang berhubungan dengan Pentagon.
Kehilangan kontrak pemerintah akan menjadi kemunduran besar bagi Anthropic dan menandai perubahan signifikan di pasar AI, di mana keamanan sering kali diabaikan demi inovasi. Michael Bennett dari Universitas Illinois Chicago menyatakan bahwa regulasi AI saat ini hampir tidak ada, memberikan kebebasan bagi vendor untuk berinovasi. Anthropic merasa tertekan untuk tetap bersaing dengan vendor lain yang tidak memprioritaskan keamanan.
Perubahan kebijakan ini juga dipengaruhi oleh pergeseran regulasi dari era Biden ke Trump, yang menekankan inovasi tanpa batas. Beberapa klien Anthropic mungkin memahami perubahan ini, mengingat bahwa perusahaan tetap berkomitmen pada aplikasi teknologi yang lebih kontroversial. Namun, keputusan ini menimbulkan kekhawatiran di kalangan pengamat seperti Lily Li, yang mengkhawatirkan dampak jangka panjang pada reputasi keamanan Anthropic.
Meskipun demikian, Anthropic tetap dianggap sebagai pemimpin dalam keamanan AI. Jeff Pollard dari Forrester Research menyatakan bahwa meskipun keamanan penting, banyak klien lebih fokus pada kemampuan model untuk meningkatkan produktivitas. Keputusan Anthropic ini mungkin memicu pengembangan model yang lebih kuat di masa depan, mendorong pesaing untuk mempercepat inovasi mereka. Sementara itu, beberapa negara bagian seperti Colorado mulai mengatur penggunaan AI untuk mencegah diskriminasi, menunjukkan bahwa prospek regulasi AI belum sepenuhnya mati.