Bahaya Penggunaan AI dalam Dukungan Kesehatan Mental

March 3, 2026 | by Luna

Artificial Intelligence (AI) kembali menunjukkan keterbatasannya. Kali ini, teknologi tersebut mendapat sorotan tajam. Fokus utamanya adalah sektor dukungan AI kesehatan mental. Asosiasi Gangguan Makan Nasional (NEDA) baru saja mengambil langkah tegas.

Mereka menarik chatbot dari saluran bantuan resminya. Hal ini terjadi setelah bot tersebut memberi saran berbahaya. Saran ini berkaitan langsung dengan penderita gangguan makan. Pihak NEDA segera memberikan klarifikasi resmi. Klarifikasi ini disampaikan melalui akun Instagram mereka.

Mereka menemukan bahwa versi terbaru chatbot Tessa bermasalah. Program ini beroperasi di bawah kampanye Body Positive. Namun, bot tersebut rupanya memberikan informasi yang salah. Oleh karena itu, NEDA sedang melakukan investigasi mendesak. Mereka juga telah menangguhkan program tersebut sementara waktu.

Kontroversi Penggantian Staf Manusia

Pengumuman mengejutkan ini muncul setelah NEDA mengungkap rencana besar. Sebelumnya, mereka berniat mengganti seluruh staf manusia. Mereka ingin menggunakan asisten virtual untuk melayani pengguna. Namun sayangnya, rencana ini mendapat penolakan keras.

Aktivis gangguan makan, Sharon Maxwell, mengungkapkan kekhawatirannya. Ia membagikan kisah nyatanya di platform Instagram. Ia menyatakan bahwa chatbot itu memberikan saran yang mengganggu. Maxwell melaporkan pesan awal yang dikirimkan oleh Tessa.

Bot tersebut menyarankan pemulihan dan penurunan berat badan bersamaan. Padahal, hal ini sangat berbahaya bagi penderita. Bahkan, sistem itu menyarankan penurunan hingga dua pon per minggu. Selain itu, bot merekomendasikan tindakan ekstrem lainnya. Contohnya adalah penghitungan kalori ketat dan penimbangan rutin.

Tantangan Etika dan Masa Depan AI

Pengenalan inovasi cerdas sebagai dukungan psikologis menghadapi tantangan besar. Kasus pelanggaran etika serupa tidak hanya terjadi sekali. Pada bulan Januari lalu, ada kasus lain yang terungkap. Pendiri program terapi Koko membuat pengakuan mengejutkan.

Ia mengakui bahwa layanannya telah menggunakan chatbot GPT-3. Bot canggih ini merespons lebih dari 4.000 pengguna. Masalah utamanya adalah kurangnya transparansi dari perusahaan. Mereka tidak memberi tahu pengguna bahwa itu adalah mesin.

Ahli etika medis, Art Caplan, menyoroti fenomena berbahaya ini. Tindakan diam-diam ini justru akan menghambat penggunaan teknologi medis. Pada akhirnya, hal ini merugikan praktisi dan pasien. Oleh karena itu, penerapan AI harus selalu diawasi secara ketat.

Recommended Article