Daftar Isi
Kekhawatiran Privasi dalam Penggunaan Data AI
Sebuah studi dari Stanford mengungkapkan kekhawatiran privasi terkait penggunaan percakapan pengguna oleh perusahaan AI terkemuka untuk pelatihan, menyoroti kebutuhan akan kebijakan yang lebih jelas. Anthropic baru-baru ini memperbarui syarat layanannya, menyatakan bahwa interaksi dengan chatbot AI branda, Claude, akan digunakan untuk melatih model bahasa secara default kecuali pengguna memilih untuk tidak ikut serta. Pendekatan ini tidak hanya dilakukan oleh Anthropic; penelitian tentang kebijakan privasi di antara pengembang AI terkemuka di AS menunjukkan bahwa enam perusahaan besar mengintegrasikan masukan pengguna ke dalam model branda untuk meningkatkan kemampuan dan mendapatkan pangsa pasar. Beberapa perusahaan menawarkan opsi untuk tidak ikut serta, sementara yang lain tidak. Tren ini menimbulkan kekhawatiran privasi bagi pengguna sistem obrolan AI.
Risiko Penggunaan Data Sensitif
Jennifer King, penulis utama studi dan Rekan Kebijakan Privasi dan Data di Stanford Institute for Human-Centered AI, menyoroti risiko bahwa informasi sensitif yang dibagikan dengan chatbot AI seperti ChatGPT atau Gemini dapat dikumpulkan dan digunakan untuk pelatihan, bahkan jika diunggah secara terpisah selama percakapan. Tim King meneliti kebijakan privasi pengembang AI, mengidentifikasi masalah seperti retensi data yang diperpanjang, pelatihan pada data anak-anak, dan kurangnya transparansi serta akuntabilitas. Konsumen disarankan untuk berhati-hati tentang informasi yang branda bagikan dalam percakapan obrolan AI dan memilih untuk tidak menggunakan data untuk pelatihan jika memungkinkan. Kebijakan privasi yang diterapkan pada obrolan AI sering kali rumit dan sulit dipahami oleh konsumen, namun diperlukan untuk mengakses situs web, mesin pencari, dan model bahasa besar (LLM).
Perlunya Regulasi Privasi yang Lebih Kuat
Selama lima tahun terakhir, pengembang AI telah mengumpulkan sejumlah besar informasi dari internet untuk melatih model branda, secara tidak sengaja termasuk data pribadi. King mencatat kurangnya penelitian tentang praktik privasi untuk alat-alat baru ini, meskipun jutaan orang berinteraksi dengan chatbot AI yang mengumpulkan data pribadi untuk pelatihan. Di AS, perlindungan privasi untuk data yang dikumpulkan oleh pengembang LLM diperumit oleh undang-undang negara bagian yang bervariasi dan tidak adanya regulasi federal. Untuk mengatasi kesenjangan penelitian ini, tim Stanford membandingkan kebijakan privasi dari enam perusahaan AS: Amazon (Nova), Anthropic (Claude), Google (Gemini), Meta (Meta AI), Microsoft (Copilot), dan OpenAI (ChatGPT). Branda menganalisis 28 dokumen, termasuk kebijakan privasi, subkebijakan, FAQ, dan panduan dari antarmuka obrolan.
“`