Daftar Isi
Scale AI Meluncurkan Laboratorium Keamanan AI
Scale AI, perusahaan Artificial Intelligence yang membantu perusahaan lain melatih dan memberi label perangkat lunak artificial intelligence branda sendiri, akan meluncurkan laboratorium keamanan Artificial Intelligence (AI) baru. Laboratorium ini bertujuan untuk mengatasi kekhawatiran yang muncul terkait pengembangan AI yang bertanggung jawab. Unit yang disebut Safety, Evaluations and Analysis Lab (SEAL) akan membangun serangkaian produk bagi pelanggan Scale AI untuk mengevaluasi risiko yang mungkin timbul dalam implementasi AI branda. Selain itu, SEAL juga akan menerapkan metode red team yang bertujuan untuk menemukan kelemahan dan bias dalam perangkat lunak sebelum diluncurkan. Pekerjaan laboratorium ini akan mencakup pengembangan sistem penilaian otomatis berdasarkan model bahasa besar, serta melakukan penelitian tentang potensi bahaya AI
Summer Yue Memimpin Laboratorium Keamanan AI
Laboratorium ini akan dipimpin oleh mantan peneliti Google, Summer Yue, yang sebelumnya menjadi pemimpin tim untuk chatbot Google yang disebut Bard. Dalam perannya di Google, Yue bekerja pada RLHF (reinforcement learning from human feedback), sebuah teknik pelatihan AI yang melibatkan bimbingan manusia serta machine learning.
Tanggapan Terhadap Layanan Generative AI dan Perdebatan Keamanan Artificial Intelligence
Inisiatif ini muncul sebagai respons terhadap munculnya layanan generative AI seperti ChatGPT dari OpenAI dan Bard dari Google, serta adanya perdebatan intens mengenai keamanan AI. Pemerintah AS dan Inggris juga telah mengeluarkan peraturan dan kebijakan terkait pengembangan teknologi AI. Presiden Joe Biden mengeluarkan perintah eksekutif yang menetapkan batasan bagi perusahaan yang mengembangkan teknologi tersebut, sementara Perdana Menteri Rishi Sunak mengadakan pertemuan keamanan artificial intelligence di Inggris. Dalam mengumumkan SEAL, Scale AI menyatakan pentingnya adopsi dan kepatuhan terhadap standar dan regulasi yang akan diterapkan oleh perusahaan dan pemerintah yang menggunakan aplikasi LLM (large language models).
Manfaat dari Laboratorium Keamanan Artificial Intelligence
Dengan meluncurkan laboratorium keamanan AI ini, Scale AI berharap dapat meningkatkan pemahaman dan pengetahuan tentang model bahasa besar (LLM) serta mengidentifikasi kelemahan dan risiko yang terkait. Langkah ini dianggap penting mengingat laju perkembangan teknologi yang cepat dan perlunya industri teknologi untuk mengambil tindakan proaktif dalam menghadapi tantangan keamanan yang muncul seiring dengan kemajuan AI.