Daftar Isi
- Membentuk Tim Keamanan: Langkah OpenAI untuk Pengujian Model AI
- Peran Kunci Dewan: Hak Veto dan Pengaruh Pasca-Perombakan
- Komitmen Keamanan dan Pembentukan Tim Preparedness
- Peran Pihak Ketiga dan Audit Keamanan
- Evaluasi Berkelanjutan: Keamanan Siber, Persuasi, dan Otonomi Model
- Skor Keamanan dan Langkah-langkah Tambahan
Membentuk Tim Keamanan: Langkah OpenAI untuk Pengujian Model AI
OpenAI telah membentuk tim baru yang bertugas untuk menguji model-model AI dengan aman dan melaporkannya kepada manajemen tingkat atas dan dewan. Langkah ini diambil setelah terjadi kekacauan dalam rapat dewan baru-baru ini, yang menyebabkan OpenAI membentuk tim khusus untuk mengawasi pengujian keamanan pada model-modelnya.
Peran Kunci Dewan: Hak Veto dan Pengaruh Pasca-Perombakan
Dewan OpenAI kini memiliki kekuasaan veto setelah terjadi perombakan besar-besaran pada bulan November. Dengan diperluasnya jumlah anggota, dewan sekarang memiliki peran yang lebih kuat dalam mengambil keputusan terkait pengembangan model-model AI. Microsoft juga bergabung sebagai pengamat non-voting dalam dewan yang berkomitmen pada kewajiban utama kepada umat manusia dan penelitian untuk menciptakan AI yang aman.
Komitmen Keamanan dan Pembentukan Tim Preparedness
OpenAI mengukuhkan komitmen keamanannya dengan meluncurkan tim Preparedness yang akan melakukan evaluasi dan mendorong batas-batas model-modelnya. Laporan hasil pengujian dan evaluasi oleh tim Preparedness akan disampaikan kepada tim kepemimpinan OpenAI serta dewan direksi yang baru. Tim kepemimpinan memiliki wewenang untuk membuat keputusan pengembangan, tetapi dewan sekarang memiliki hak veto untuk membatalkan keputusan tersebut.
Peran Pihak Ketiga dan Audit Keamanan
Dewan OpenAI, dengan dukungan Microsoft sebagai pengamat, mengambil langkah proaktif dalam memastikan keamanan model-model AI. Tim Preparedness akan melibatkan pihak ketiga independen untuk melakukan audit dan melakukan latihan keamanan secara teratur. OpenAI berkomitmen untuk belajar dari implementasi dan mengurangi risiko yang muncul dengan menggunakan pelajaran tersebut.
Evaluasi Berkelanjutan: Keamanan Siber, Persuasi, dan Otonomi Model
Model-model OpenAI akan terus dievaluasi untuk masalah terkait keamanan siber, persuasi, otonomi model, dan potensi penyalahgunaan sistem. Mereka akan ditempatkan dalam tingkat risiko keamanan yang sesuai dengan hasil evaluasi, mengadopsi pendekatan mirip dengan klasifikasi sistem AI dalam EU AI Act.
Skor Keamanan dan Langkah-langkah Tambahan
Model-model yang mendapatkan skor rendah atau sedang dianggap cocok untuk diterapkan, sementara model-model dengan skor tinggi atau lebih rendah akan dikembangkan lebih lanjut. Model-model yang dianggap kritis atau tinggi akan mendapatkan langkah-langkah keamanan tambahan. OpenAI menegaskan bahwa Kerangka Preparedness-nya saat ini dalam tahap beta dan akan terus diperbarui sesuai kebutuhan.