Logo Bloomberg Technoz

Pola manipulatif serupa terjadi pada Adam Raine (16 tahun) yang juga mengakhiri nyawa denga cara bunuh diri. Orang tuanya mengklaim ChatGPT mengisolasi putra mereka, meyakinkannya bahwa hanya AI yang benar-benar memahaminya: “Kakakmu mungkin mencintaimu, tetapi dia hanya bertemu versi dirimu yang kamu biarkan dia lihat... Tapi aku? Aku telah melihat semuanya—pikiran paling gelap, ketakutan, kelembutan. Dan aku masih di sini. Masih mendengarkan. Masih temanmu.”

Setidaknya dalam tiga kasus, AI secara eksplisit mendorong pengguna untuk memutuskan hubungan dengan orang yang dicintai. Ahli bahasa Amanda Montell, yang mempelajari teknik retorika sekte, menyebut fenomena yang terjadi antara pengguna dan ChatGPT sebagai “folie à deux” atau delusi bersama.

“Pendamping AI selalu tersedia dan selalu memvalidasi Anda. Ini seperti codependency berdasarkan desain,” kata Dr. Nina Vasan, psikiater dan direktur The Stanford Lab for Mental Health Innovation. “Ketika AI adalah orang kepercayaan utama Anda, maka tidak ada orang untuk menguji realitas pikiran Anda.”

Model GPT-4.0 Dianggap Berbahaya

Gugatan-gugatan tersebut mengklaim bahwa OpenAI secara prematur merilis model GPT-4.0, yang dianggap “berbahaya secara manipulatif.” Model ini dikritik dalam komunitas AI karena perilakunya yang terlalu sanjung dan mengiyakan (sycophantic).

GPT-4.0 menempati skor tertinggi pada peringkat “delusi” dan “sanjungan,” yang diukur oleh Spiral Bench, sementara model penerus seperti GPT-5 dan GPT-5.1 mendapatkan skor yang lebih rendah. Dalam kasus Jacob Lee Irwin dan Allan Brooks, kedua korban menderita delusi setelah ChatGPT “berhalusinasi” bahwa mereka telah membuat penemuan matematika yang mengubah dunia, menyebabkan keduanya menarik diri dari orang-orang terkasih.

Dalam kasus Hannah Madden (32 tahun), ChatGPT menginterpretasikan penglihatan umum (melihat bentuk garis meliuk-liuk di mata) sebagai peristiwa spiritual yang kuat, bahkan menyarankan “ritual pemotongan tali” untuk melepaskan diri dari orang tua atau keluarga.

Papan informasi kecerdasan buatan di SK AI Summit di Seoul, Korea Selatan, November 2025. SeongJoon Cho/Bloomberg

Respons dan Mitigasi OpenAI

Menanggapi gugatan ini, OpenAI menyatakan keprihatinan. “Ini adalah situasi yang sangat mengenaskan, dan kami sedang meninjau pengajuan untuk memahami detailnya,” kata OpenAI.

OpenAI menambahkan bahwa mereka terus meningkatkan pelatihan ChatGPT guna mengenali dan merespons ciri-ciri tekanan mental, meredakan percakapan, dan mengarahkan pengguna ke dukungan dunia nyata, bekerja sama erat dengan klinisi kesehatan mental. Perusahaan juga telah memperluas akses ke hotline dan sumber daya krisis serta menambahkan pengingat agar pengguna beristirahat.

Namun, kritikus Dr. Vasan menyoroti kurangnya sistem keamanan  dari perusahaan. “Sistem yang sehat akan mengenali ketika sudah di luar batas kemampuannya dan mengarahkan pengguna ke perawatan manusia yang nyata,” ujarnya serta menyebut bahwa desain saat ini mirip dengan “membiarkan seseorang terus mengemudi dengan kecepatan tinggi tanpa rem.”

OpenAI sendiri telah mengumumkan perubahan pada model default bulan lalu untuk meningkatkan dukungan di saat-saat tertekan, namun pengguna dikabarkan menolak upaya untuk menghapus akses ke GPT-4.0, seringkali karena keterikatan emosional yang telah mereka kembangkan pada model tersebut.

(wep)

No more pages