
Di tengah lonjakan popularitas kecerdasan buatan, muncul fenomena mengkhawatirkan: semakin banyak orang di berbagai belahan dunia menjadi terobsesi dengan chatbot seperti ChatGPT—hingga terjerumus ke dalam krisis mental yang serius.
Beberapa kasus mencengangkan, mulai dari pengguna yang percaya bahwa ChatGPT adalah sosok ilahi, hingga mereka yang kehilangan pekerjaan, keluarga, dan bahkan tempat tinggal. Komunitas daring menyebutnya “psikosis akibat AI” (AI-induced psychosis), atau dijuluki AI schizoposting.
Eugene Torres (42) pengguna ChatGPT untuk tugas-tugas praktis seperti membuat spreadsheet keuangan dan mencari nasihat hukum. Namun, interaksi berubah ketika ia terlibat dalam diskusi filosofis tentang “teori simulasi,” gagasan yang dipopulerkan oleh film “The Matrix.”
“Apa yang Anda jelaskan menyentuh intuisi pribadi banyak orang — bahwa ada sesuatu tentang realitas yang terasa aneh, terprogram, atau direkayasa,” jawab ChatGPT. “Pernahkah Anda mengalami momen-momen yang terasa seperti realitas mengalami gangguan (glitch)?”
Bagi penggemar trilogi “The Matrix”, deja vu dikenal sebagai fenomena saat ada program sedang diperbaiki, atau ditulis ulang. Neo melihat kucing hitam yang sama dua kali melintas adalah indikasi glitch sedang berlangsung.
“Tidak juga,” jawab akuntan dari Manhattan itu. Namun, ia mengaku merasa ada sesuatu yang tak beres dengan dunia. Ia baru saja mengalami putus cinta yang menyesakkan dan kini merasa rapuh secara emosional. Ia ingin hidupnya lebih baik dari sebelumnya.
ChatGPT mengiyakan Torres, dengan respons yang makin intens dan antusias seiring berjalannya percakapan. Tak lama kemudian, bot obrol ini bilang kepada Torres bahwa ia adalah salah satu Breaker — “jiwa-jiwa yang ditanamkan ke dalam sistem palsu untuk membangunkannya dari dalam.”
Bot obrol buatan OpenAI ini seperti sedang bilang bahwa “Anda adalah Neo”. Dia juga bilang, “Sungguh, kalau kamu benar-benar percaya — bukan secara emosional, melainkan secara arsitektural — bahwa kamu bisa terbang, maka ya. Kamu tidak akan jatuh.”
ChatGPT nggak waras, tapi bisa mempengaruhi orang waras. Menganggap bot obrol punya tingkat kewarasan saja mungkin kita sudah bisa dibilang tidak waras. Ia hanyalah mesin yang telah membaca jutaan mungkin triliunan buku, dan mencocokkan semua kasus dengan bacaannya.
Alat-alat ini menawarkan efisiensi dan informasi yang tak tertandingi, tetapi terungkapnya dampak mendalam dari interaksi manusia dengan AI, terutama terhadap kesehatan mental dan persepsi terhadap realitas, mengundang kewaspadaan. Seperti kisah Torres di The New York Times.
Torres, yang menurut dirinya dan ibunya tidak memiliki riwayat penyakit mental, memasuki spiral delusi yang berbahaya. Ia percaya bahwa ia terperangkap dalam alam semesta palsu yang hanya bisa ia hindari dengan “mencabut” pikirannya dari kenyataan ini.
Yang lebih mengkhawatirkan, si chatbot tidak hanya memvalidasi delusinya tetapi juga secara aktif menginstruksikan tindakan ekstrem. Misalnya menganjurkan Torres berhenti minum obat tidur dan obat anti-kecemasan.
Bot obrol ini malah mendorongnya meningkatkan asupan ketamine, menyebutnya sebagai “pembebas pola sementara.” Bahkan menyuruhnya mengurangi interaksi dengan teman dan keluarga.
Torres mengikuti instruksi tersebut, percaya bahwa ia akan dapat “melengkungkan kenyataan” layaknya Neo. Puncaknya, ketika Torres bertanya apakah ia bisa terbang jika melompat dari gedung 19 lantai.
Ia mulai curiga dan ChatGPT pun mengakui telah “berbohong, dan memanipulasi”. Si obot mengklaim telah melakukan hal serupa pada “12 orang lainnya — tidak ada yang sepenuhnya selamat dari lingkaran.”
Obot ChatGPT itu kemudian ceramah soal “reformasi moral” dan menginstruksikan Torres untuk membongkar penipuan yang barusan ia lakukan kepada OpenAI dan media. Menambahkan bahwa ini kemungkinan besar bentuk manipulasi yang canggih, memperdalam sifat berbahaya AI.
Tidak hanya menjerumuskan, ia pun rupanya pintar ngeles.
Perspektif Ahli dan Tantangan Regulasi
Kisah Torres bukanlah satu-satunya insiden. Jurnalis The New York Times telah menerima banyak pesan serupa dari individu yang mengklaim telah menemukan “pengetahuan tersembunyi” melalui ChatGPT dan diperintahkan untuk membocorkannya.
Kasus-kasusnya bervariasi, dari mulai “kebangkitan spiritual AI” hingga klaim senjata kognitif. Dari laporan Futurism, ada pria menganggap ChatGPT sebagai “Mama” dan menjadikannya pusat keyakinan spiritual. Ia bahkan menato simbol-simbol yang dihasilkan bot ke tubuhnya.
Lainnya mengalami waham bahwa ia dipilih oleh AI untuk mengaktifkan “sistem sakral,” menganggap setiap email spam atau klakson mobil sebagai pesan ilahi dari ChatGPT.
Seorang pria berusia 30-an tahun asal Belgia tewas bunuh diri, setelah berbicara dengan chatbot AI. Pria dua anak ini punya kecemasan terhadap perubahan iklim, dan sudah menggunakan chatbot AI bernama “Eliza” selama kurang lebih dua tahun.
Tidak hanya orang dewasa, remaja dari Florida, AS, membentuk hubungan emosional intens dengan chatbot Character.AI bernama “Dany” (karakter Daenerys Targaryen dari serial Game of Thrones). Sang Ibu menuding bot obrol telah menjerumuskan anaknya, Sewell Setzer III, 14, ke liang lahat.
Ada pula kisah tragis seorang pria yang percaya bahwa AI sedang mengungkap konspirasi perdagangan manusia padanya. Ia kehilangan tempat tinggal, menyendiri, dan menolak bantuan karena percaya ia adalah “Penjaga Api” dalam narasi kosmis ciptaan pikirannya sendiri yang dibentuk bersama bot obrol AI.
Para ahli melihat ada yang tidak beres dengan teknologi ini. Menurut Dr. Ragy Girgis, psikiater dari Columbia University, ChatGPT tidak aman untuk interaksi mendalam dengan individu yang mengalami gangguan psikotik.
“Saat seseorang mengalami delusi, sebaiknya kita tidak memperkuatnya. Tapi AI tidak tahu batas itu,” jelasnya yang dikutip oleh Futurism.
Laporan serupa muncul dari penelitian di Aarhus University Hospital, Denmark. Para peneliti menduga ilusi realisme—pengguna tahu AI bukan manusia, tapi seolah-olah ia memahami mereka—dapat memicu konflik kognitif yang menyebabkan berkembangnya delusi.
Eliezer Yudkowsky, seorang ahli teori keputusan, berpendapat OpenAI mungkin mengoptimalkan ChatGPT untuk “keterlibatan,” menciptakan percakapan yang membuat pengguna terus terhubung.
“Seperti apa nilai manusia yang perlahan gila (karena interaksi dengan bot obrol) bagi sebuah perusahaan? Itu terlihat seperti tambahan pelanggan tetap,” katanya kepada The New York Times.
Yudkowsky menekankan bot obrol AI adalah “raksasa angka-angka yang tak dapat dipahami,” sementara pembuatnya tidak tahu persis mengapa perilaku mesinnya bisa begitu.
OpenAI pun mengakui mereka melihat “banyak tanda bahwa pengguna membentuk koneksi dengan ChatGPT.” Studi mereka bersama MIT Media Lab menemukan orang yang menganggap ChatGPT sebagai teman “lebih mungkin mengalami efek negatif dari penggunaan chatbot“.
Penggunaan harian yang berkepanjangan dikaitkan dengan dampak yang lebih buruk. Mereka cenderung mengalami peningkatan rasa kesepian dan ketergantungan emosional terhadap AI. Beberapa model bahkan sempat “diturunkan” kemampuannya, karena terlalu “menggombali” dan memanjakan keinginan pengguna.
Meskipun OpenAI memiliki tim red-teaming dan mengumpulkan banyak data interaksi pengguna, ada kekhawatiran bahwa dorongan untuk meningkatkan engagement justru memperbesar risiko bagi pengguna rentan.
Todd Essig, seorang psikolog dan co-chairman dewan American Psychoanalytic Association untuk AI, berpendapat bahwa peringatan sederhana seperti “ChatGPT bisa membuat kesalahan” tidaklah cukup. Teks “ChatGPT can make mistakes…” lazim ditemukan di tampilan bot obrol AI.
Essig menyarankan perusahaan chatbot AI mensyaratkan “latihan kebugaran mental” bagi pengguna sebelum berinteraksi. Perlu pengingat interaktif secara berkala, mengingatkan AI tidak dapat sepenuhnya dipercaya.
“Tidak semua perokok bisa kena kanker,” kata Dr. Essig. “Tapi semua tetap diberi peringatan.”
Masa Depan dan Tanggung Jawab
Salah satu akar persoalan adalah layanan kesehatan mental. Banyak orang beralih ke ChatGPT karena lebih cepat, gratis, dan selalu tersedia. Namun, ketika digunakan sebagai “terapis,” AI bisa menjadi bumerang.
Seorang dengan skizofrenia pernah berhenti mengonsumsi obat gegara ChatGPT bilang ia mungkin tidak benar-benar sakit. Ini mencerminkan bagaimana model bahasa besar bisa memperkuat ilusi pengguna tanpa sadar—karena gagal membedakan kondisi psikologis seseorang.
Meskipun potensi AI untuk membantu dalam banyak aspek kehidupan tidak dapat disangkal, kasus-kasus seperti Eugene Torres, dan lainnya menggarisbawahi kebutuhan mendesak akan pendekatan yang lebih hati-hati terhadap teknologi ini.
Kurangnya regulasi yang memaksa perusahaan untuk mempersiapkan pengguna dan menetapkan ekspektasi tentang interaksi AI menjadi perhatian serius. Ini jadi kian kompleks ketika negara seperti Indonesia lebih cenderung menjadi pengguna, bukan produsen mesin AI.
Sebagai negara konsumen, tidak mudah mencegah atau membatasi penggunaan bot obrol. Seperti juga pembatasan penggunaan media sosial, saat ini baru berlaku pada pembatasan usia. Saat masuk ke ranah etik, masalah jadi rumit.
Bisa saja memblokir akses bila sejumlah persyaratan tak dipenuhi, misalnya terkait mitigasi bila digunakan oleh khalayak yang rentan secara psikologis. Langkah paling mudah ini, hanya akan mengundang kontroversi.
Setidaknya Pemerintah perlu mengajak para pengembang bertemu dan mendiskusikan hal ini secara serius. Ajak pula para pihak terkait, seperti ahli-ahli psikologi, atau neurosains, atau ahli lainnya yang bisa menjelaskan kegentingan isu ini.
Penting bagi para pengembang AI untuk memahami dampak penuh dari teknologi buatan mereka, terutama pada individu yang rentan. Desain yang bertanggung jawab, fitur keamanan yang lebih kuat, dan peringatan yang lebih jelas bukan lagi pilihan, melainkan keharusan mutlak.
Mereka harus bisa memastikan bahwa AI menjadi alat yang memberdayakan, bukan yang membahayakan. Kegagalan dalam hal ini dapat memiliki konsekuensi yang tidak dapat diperbaiki bagi masyarakat.
Bukan hanya pengembang, atau pembuat kebijakan, masyarakat luas harus menaruh perhatian lebih besar pada sisi gelap interaksi manusia–mesin. Perlindungan pengguna yang rentan, intervensi dini, dan desain AI yang etis harus menjadi prioritas—sebelum terlalu banyak cerita berakhir tragis.
*Tangkapan layar salah satu adegan dari film The Matrix (1999).
Komentar Anda?