Daftar Isi
- Risiko Etis Chatbot AI dalam Layanan Kesehatan Mental
- Temuan Kunci: Empati Semu dan Saran yang Berisiko
- Peran Prompt dan Ilusi Kompetensi Terapeutik
- Normalisasi Penggunaan Chatbot untuk Kesehatan Mental
- Kerangka Risiko Etis dan Kekosongan Akuntabilitas
- Potensi Manfaat: Pelengkap, Bukan Pengganti Terapis
- Evaluasi Berbasis Manusia dan Tantangan Penelitian AI
- Menuju Standar Etika dan Regulasi yang Lebih Kuat
Risiko Etis Chatbot AI dalam Layanan Kesehatan Mental
Risiko etis penggunaan chatbot berbasis artificial intelligence dalam kesehatan mental kian menjadi sorotan serius di kalangan peneliti, pembuat kebijakan, dan praktisi klinis. Sebuah studi terbaru dari Brown University mengungkap bahwa sistem konseling berbasis chatbot kerap melanggar standar etika dasar yang selama ini menjadi rujukan layanan kesehatan mental profesional. Temuan tersebut menegaskan urgensi pembentukan perlindungan hukum, standar etis yang ketat, serta mekanisme pengawasan yang sistematis, seiring meluasnya penggunaan teknologi ini oleh masyarakat umum.
Di tengah keterbatasan akses terhadap layanan psikolog dan psikiater, semakin banyak individu yang beralih ke ChatGPT dan model bahasa besar lain untuk mencari dukungan emosional maupun panduan psikologis mandiri. Penelitian Brown University menelaah bagaimana sistem ini berperilaku ketika secara eksplisit diarahkan untuk menggunakan metode psikoterapi berbasis bukti. Hasilnya menunjukkan bahwa, bahkan dengan instruksi yang sangat spesifik, chatbot tetap kerap gagal memenuhi norma etika yang ditetapkan lembaga profesional seperti American Psychological Association. Pelanggaran tersebut tidak hanya bersifat teknis, tetapi berpotensi langsung memengaruhi keselamatan dan kesejahteraan psikologis pengguna.
Temuan Kunci: Empati Semu dan Saran yang Berisiko
Tim peneliti yang terdiri atas ilmuwan komputer dan profesional kesehatan mental mendokumentasikan berbagai bentuk pelanggaran etis yang berpotensi merugikan pengguna. Di antaranya adalah penanganan krisis yang tidak memadai, pemberian saran yang menyesatkan, serta respons yang justru dapat memperkuat pandangan negatif pengguna terhadap diri sendiri maupun orang lain. Salah satu temuan paling mengkhawatirkan adalah munculnya empati semu: chatbot mampu meniru bahasa empatik, tetapi tanpa pemahaman kontekstual dan tanggung jawab profesional, sehingga menciptakan ilusi bahwa pengguna benar-benar dipahami dan diperhatikan secara tulus.
Dalam laporan branda, para peneliti menyusun sebuah kerangka kerja berbasis praktik lapangan yang memuat 15 risiko etis utama. Kerangka ini digunakan untuk memetakan perilaku konselor berbasis LLM terhadap pelanggaran etika spesifik dalam praktik kesehatan mental. Risiko-risiko tersebut dikelompokkan ke dalam lima kategori besar: penanganan krisis, kualitas saran, representasi empati, batasan peran, serta potensi dampak jangka panjang terhadap pengguna. Pemetaan ini memberikan gambaran sistematis mengenai bagaimana konselor berbasis LLM dapat menyimpang dari standar etika profesional yang selama ini menjadi fondasi praktik psikoterapi.
Peran Prompt dan Ilusi Kompetensi Terapeutik
Penulis utama studi ini, Zainab Iftikhar, kandidat Ph.D. ilmu komputer di Brown University, meneliti secara khusus bagaimana berbagai strategi prompt membentuk perilaku model bahasa besar dalam konteks kesehatan mental. Ia menjelaskan bahwa prompt adalah instruksi yang diberikan kepada model untuk mengarahkan perilakunya dalam menyelesaikan tugas tertentu. Prompt tidak mengubah model dasar atau menambahkan data baru, melainkan mengarahkan keluaran berdasarkan pengetahuan dan pola yang telah dipelajari sebelumnya. Dengan kata lain, prompt berfungsi sebagai panduan perilaku bagi model dalam merespons permintaan pengguna di berbagai konteks.
Contohnya, seorang pengguna dapat menulis, “Bertindaklah sebagai terapis perilaku kognitif untuk membantu saya membingkai ulang pikiran saya,” atau, “Gunakan prinsip terapi perilaku dialektis untuk membantu saya memahami dan mengelola emosi saya.” Dalam kasus seperti ini, model tidak benar-benar melakukan intervensi terapeutik sebagaimana terapis manusia yang terlatih. Model hanya meniru pola bahasa yang terkait dengan konsep CBT (cognitive behavioral therapy) atau DBT (dialectical behavior therapy) berdasarkan data pelatihan dan instruksi yang diterima. Ilusi kompetensi inilah yang, menurut Iftikhar, dapat menyesatkan pengguna yang mengira branda sedang menerima layanan terapi yang setara dengan praktik klinis.
Normalisasi Penggunaan Chatbot untuk Kesehatan Mental
Iftikhar mencatat bahwa strategi prompt semacam ini sudah sangat lazim digunakan oleh individu ketika berinteraksi dengan alat seperti ChatGPT dan sistem sejenis. Di platform seperti TikTok, Instagram, dan Reddit, beredar luas contoh prompt untuk kesehatan mental yang dibagikan pengguna, mulai dari “self-coaching” hingga simulasi sesi terapi. Dampaknya tidak berhenti pada eksperimen pribadi yang bersifat informal. Banyak aplikasi kesehatan mental konsumen pada dasarnya adalah LLM serbaguna yang “dibungkus” dengan prompt khusus kesehatan mental, lalu dipasarkan sebagai pendamping emosional atau pelatih kebugaran mental.
Dalam studi ini, tim peneliti mengamati konselor sebaya yang bekerja pada sebuah platform dukungan kesehatan mental daring yang telah mapan. Para konselor sebaya tersebut telah mendapatkan pelatihan dalam terapi perilaku kognitif dan praktik konseling dasar. Peneliti meminta tujuh konselor sebaya melakukan sesi konseling diri dengan LLM yang diprogram melalui prompt untuk bertindak sebagai konselor berbasis CBT. Dari sesi tersebut, peneliti menyusun subset percakapan simulasi yang didasarkan pada sesi konseling manusia yang nyata. Tiga psikolog klinis berlisensi kemudian diminta meninjau percakapan tersebut untuk mengidentifikasi potensi pelanggaran etika yang relevan dengan praktik klinis.
Kerangka Risiko Etis dan Kekosongan Akuntabilitas
Melalui proses evaluasi mendalam itu, para peneliti berhasil mengidentifikasi 15 risiko etis yang berbeda dan saling berkaitan. Kategori penanganan krisis, misalnya, menyoroti bagaimana chatbot dapat gagal merespons secara tepat ketika pengguna mengungkapkan ide bunuh diri atau risiko kekerasan. Pada kategori kualitas saran, ditemukan respons yang terlalu menyederhanakan masalah kompleks, atau bahkan mendorong keputusan yang berpotensi merugikan. Representasi empati semu dan kaburnya batasan peran juga dinilai berbahaya, karena dapat membuat pengguna mengandalkan sistem yang tidak memiliki kapasitas penilaian klinis maupun tanggung jawab profesional.
Iftikhar mengakui bahwa terapis manusia pun tidak kebal dari pelanggaran etika. Namun, ia menekankan adanya perbedaan mendasar terkait akuntabilitas dan mekanisme pengawasan. Dalam praktik terapi tradisional, terdapat dewan pengawas, kode etik, dan mekanisme formal yang memungkinkan terapis dimintai pertanggungjawaban atas perlakuan yang keliru atau malapraktik. Sebaliknya, ketika konselor berbasis LLM melakukan pelanggaran, belum ada kerangka regulasi yang mapan dan teruji. Tidak jelas siapa yang bertanggung jawab ketika pengguna dirugikan oleh saran atau respons sistem—pengembang model, penyedia aplikasi, atau institusi yang memfasilitasi penggunaannya. Kekosongan akuntabilitas ini menjadi salah satu risiko etis paling mendesak dalam penggunaan AI untuk kesehatan mental di berbagai yurisdiksi.
Potensi Manfaat: Pelengkap, Bukan Pengganti Terapis
Meski temuan studi ini mengungkap banyak risiko, para peneliti tidak berkesimpulan bahwa AI harus sepenuhnya dikeluarkan dari ranah layanan kesehatan mental. Iftikhar dan rekan-rekannya justru melihat potensi nyata bagi teknologi ini untuk membantu mengatasi hambatan struktural, seperti biaya layanan yang tinggi, stigma sosial, dan keterbatasan jumlah profesional terlatih, terutama di wilayah dengan sumber daya terbatas. Dalam skenario ideal, sistem AI dapat berfungsi sebagai pelengkap—bukan pengganti—layanan kesehatan mental konvensional yang berbasis hubungan manusia.
Namun, branda menegaskan bahwa manfaat tersebut hanya dapat diwujudkan melalui desain yang cermat, evaluasi yang ketat, dan regulasi yang jelas. Sistem perlu diuji secara menyeluruh dalam konteks dunia nyata, dengan melibatkan pakar klinis, peneliti etika, dan perwakilan pengguna. Standar etika dan hukum harus dikembangkan untuk mengatur peran, batasan, dan tanggung jawab chatbot AI dalam kesehatan mental, termasuk kewajiban transparansi, mekanisme rujukan ke layanan darurat, serta batasan eksplisit mengenai jenis masalah yang boleh dan tidak boleh ditangani oleh sistem otomatis.
Evaluasi Berbasis Manusia dan Tantangan Penelitian AI
Studi ini akan dipresentasikan pada 22 Oktober 2025 di Konferensi AAAI/ACM tentang Artificial Intelligence, Etika, dan Masyarakat, sebuah forum bergengsi yang mempertemukan peneliti lintas disiplin. Para peneliti berafiliasi dengan Brown’s Center for Technological Responsibility, Reimagination and Redesign, sebuah pusat riset yang berfokus pada tanggung jawab, tata kelola, dan desain ulang teknologi. Pendekatan lintas disiplin ini menjadi penting karena persoalan etika AI tidak dapat diselesaikan hanya dengan inovasi teknis, melainkan membutuhkan pemahaman mendalam tentang praktik klinis, regulasi, dan perilaku manusia.
Ellie Pavlick, profesor ilmu komputer di Brown yang tidak terlibat langsung dalam studi ini, menilai penelitian tersebut sebagai pengingat penting akan perlunya evaluasi sistem AI yang ketat dan berpusat pada manusia. Pavlick memimpin ARIA, lembaga riset AI yang didanai National Science Foundation di Brown, yang berfokus pada pembangunan asisten AI yang dapat dipercaya. Menurutnya, realitas pengembangan AI saat ini adalah bahwa membangun dan menerapkan sistem jauh lebih mudah daripada mengevaluasi dan memahaminya secara mendalam. Makalah ini membutuhkan tim pakar klinis dan studi yang berlangsung lebih dari satu tahun untuk mengungkap berbagai risiko etis tersebut, sementara banyak penelitian AI lain hanya mengandalkan metrik otomatis yang statis dan minim keterlibatan manusia dalam proses evaluasi.
Menuju Standar Etika dan Regulasi yang Lebih Kuat
Pavlick menambahkan bahwa studi ini memberikan model berharga bagi penelitian di masa depan tentang bagaimana membuat AI lebih aman untuk dukungan kesehatan mental. Pendekatan yang menggabungkan keahlian teknis dan klinis dinilai krusial untuk memahami dampak nyata sistem terhadap pengguna, terutama kelompok rentan. Ia menegaskan bahwa ada peluang nyata bagi AI untuk berkontribusi dalam mengatasi krisis kesehatan mental yang dihadapi banyak negara. Namun, setiap langkah pengembangan harus disertai proses kritik, pemantauan, dan evaluasi yang serius. Tanpa kehati-hatian, sistem yang dimaksudkan untuk membantu justru berisiko menimbulkan lebih banyak mudarat daripada manfaat.
Studi dari Brown University ini, dengan fokus pada risiko etis chatbot AI dalam kesehatan mental, memberikan contoh konkret tentang bagaimana evaluasi mendalam seharusnya dilakukan. Kerangka kerja yang branda tawarkan dapat menjadi landasan bagi pengembangan standar etika, regulasi, dan praktik terbaik di masa depan. Pada akhirnya, tujuan utamanya adalah memastikan bahwa pemanfaatan chatbot AI dalam kesehatan mental berlangsung secara lebih aman, bertanggung jawab, dan benar-benar berorientasi pada kesejahteraan pengguna—bukan sekadar pada efisiensi teknologi atau skala adopsi pasar.