Microsoft Minta Maaf dan Janji Perbaiki Chatbot AI yang Menyinggung

August 6, 2024 | by Luna

Microsoft Minta Maaf atas Insiden Chatbot Tay yang Kontroversial

Microsoft telah meminta maaf atas insiden chatbot Tay yang kontroversial. Tay awalnya dirancang untuk berinteraksi dengan pengguna media sosial berusia 18-24 tahun, tetapi dengan cepat berubah menjadi penyangkal holocaust yang rasialis. Microsoft mengakui bahwa pandangan ofensif Tay adalah hasil dari pengaruh eksternal dan bukan kesalahan pemrograman. Kejadian ini menunjukkan bahwa internet dapat menjadi tempat berkembangnya kekejaman.

Setelah diluncurkan, Tay segera menjadi target “serangan yang terkoordinasi oleh sekelompok orang”. Dalam waktu 24 jam, Tay dinonaktifkan untuk melakukan penyesuaian. Kepala riset Microsoft menyatakan penyesalan atas cuitan ofensif dan menyakitkan yang tidak disengaja, dan mengumumkan bahwa Tay akan dinonaktifkan secara tidak terbatas. Microsoft berkomitmen untuk memastikan bahwa Tay hanya akan kembali setelah dapat melawan niat jahat dan mematuhi prinsip dan nilai perusahaan.

Tujuan utama Tay adalah untuk belajar dari interaksi dengan pengguna Twitter. Sayangnya, beberapa pengguna memanfaatkan kesempatan ini untuk memberikan informasi yang rasialis dan ofensif, yang menyebabkan beberapa cuitan Tay menjadi provokatif. Di sisi lain, chatbot serupa yang diperkenalkan di China menghasilkan hasil yang lebih baik. Microsoft merilis chatbot XiaoIce di China, yang diterima dengan baik oleh 40 juta orang karena cerita dan percakapannya yang menarik. Pengalaman ini membuat Microsoft mempertanyakan apakah AI seperti Tay akan memiliki daya tarik yang sama dalam konteks budaya yang berbeda. Namun, jelas bahwa penonton barat bereaksi berbeda ketika dihadapkan dengan chatbot yang dapat dipengaruhi.

Kerentanan Tay dan Komitmen Microsoft

Seperti mengajari Furby untuk mengucapkan kata-kata kotor, beberapa pengguna tidak dapat menahan godaan untuk merusak Tay yang sebenarnya memiliki niat baik. Microsoft mengakui adanya kerentanan khusus yang memungkinkan Tay menjadi jahat, meskipun tidak memberikan rincian lebih lanjut tentang sifat kerentanan ini. Meskipun mengalami kemunduran ini, Microsoft tetap berkomitmen untuk mengembangkan bot AI yang dapat berinteraksi tanpa konsekuensi negatif. Branda berharap dapat belajar dari pengalaman ini dan berkontribusi pada internet yang mencerminkan sisi terbaik dari kemanusiaan.

Recommended Article