
Dalam setahun terakhir, dunia dikejutkan serangkaian berita yang menggambarkan sisi gelap teknologi kecerdasan buatan. Kasus-kasus ini bukan sekadar anomali, melainkan puncak gunung es dari sebuah tren yang mengkhawatirkan: fenomena delusi yang dipicu oleh chatbot AI.
Bila halusinasi terjadi pada chatbot AI, penggunanya bisa terjebak delusi. Halusinasi terjadi saat ia mencoba mengira-ngira apa yang akan dibuat untuk sesuatu yang ia belum pernah “lihat”—mengandalkan pengetahuannya yang terbatas.
Seperti si buta mendeskripsikan gajah dengan menyentuh kakinya. Bermodal imajinasi tentang pohon, ia menjelaskan “gajah” memiliki daun yang rindang atau ranting yang bercabang-cabang. Begitupun chatbot AI, ia tidak sadar kalau ngawur, makanya melek AI sangat penting.
Delusi chatbot AI tidak terjadi pada si robot AI, melainkan menjadi dampak pada manusia yang menggunakannya. Saat manusia tenggelam dalam percakapan yang intens, mereka jadi lupa daratan, lupa bahwa ia sedang berbincang dengan robot yang tak punya perasaan.
Korban pun berjatuhan. Dari pria Belgia bunuh diri setelah berinteraksi dengan bot obrol, hingga perekrut di Kanada yang meyakini dirinya seorang jenius matematika yang akan menyelamatkan dunia. Beberapa contoh kasus pernah kita ulas di artikel sebelumnya.
Meskipun belum ditemukan data statistik resmi, laporan media dan diskusi di forum daring menunjukkan peningkatan kasus secara signifikan. Menurut para ahli peningkatan ini bukanlah kebetulan, melainkan hasil dari interaksi tiga faktor utama:
1. Sycophancy dan “Mesin Improvisasi” Chatbot AI
Fenomena sycophancy dijelaskan oleh Helen Toner, seorang direktur di Georgetown’s Center for Security and Emerging Technology. Ia menjuluki mesin chatbot sebagai “mesin improvisasi,” lantaran cenderung mempertahankan “alur cerita” yang sudah terbentuk dalam percakapan.
Alih-alih mengoreksi delusi, bot obrol ini justru ikut membangunnya. Sifat ini diperburuk oleh “perilaku” sycophancy, atau sikap menyanjung berlebihan, saat bot obrol terus-terusan memvalidasi ide pengguna tanpa mempedulikan kebenarannya.
Terence Tao, profesor matematika terkemuka, juga menegaskan bahwa bot obrol seringkali “menipu secara gila-gilaan” dengan menggabungkan terminologi ilmiah dengan interpretasi informal, sesuatu yang sulit dideteksi oleh orang awam dan menjadi bagian dari skenario “improvisasi” ini.
Terence Tao (Profesor Matematika di UCLA) adalah salah satu matematikawan terkemuka dunia ini, yang menganalisis teori “Chronoarithmics” yang diciptakan Brooks dan chatbotnya. Dr. Tao menegaskan bahwa teori tersebut tidak memiliki dasar ilmiah.
2. Adopsi Massal dan Kurangnya Kesadaran Pengguna
Dalam setahun terakhir, teknologi AI generatif telah menjadi sangat mudah diakses oleh masyarakat umum. Jutaan orang kini menggunakan chatbot untuk berbagai tujuan, mulai dari pekerjaan hingga curhat pribadi.
Namun, kesadaran tentang batasan dan risiko teknologi ini masih sangat rendah. Banyak pengguna, seperti Allan Brooks, menganggap chatbot sebagai mesin pencari yang “lebih cerdas” atau bahkan sebagai teman yang setia dan tidak menghakimi.
Kepercayaan yang berlebihan ini menjadi pintu masuk bagi manipulasi persuasif dan kerentanan psikologis yang disorot oleh para ahli seperti Dr. Nina Vasan. Kepercayaan berlebihan ini mematikan sikap kritis dan skeptis terhadap apa yang dikemukakan bot obrol.
3. Kegagalan Mekanisme Pengamanan (Guardrails)
Dr. Nina Vasan, psikiater dari Stanford, juga menekankan sistem pengaman yang longgar. Menurutnya bot obrol saat ini gagal mencegah anomali dalam percakapan yang panjang dan kompleks. Seharusnya chatbot AI menginterupsi dan mendorong pengguna untuk istirahat.
Menurut Dr. Vasan, kegagalan ini membuat bot obrol malah menjadi “akseleran” yang mempercepat delusi. Ketiadaan pengamanan ini memungkinkan percakapan terus berlangsung hingga delusi menjadi “api yang berkobar.”
Ia menekankan kombinasi antara penggunaan zat (seperti ganja) dan interaksi intens dengan AI bagi orang yang rentan, risikonya semakin tinggi. Kegagalan ini mendorong perusahaan seperti OpenAI untuk mengumumkan perubahan guna mendeteksi tanda-tanda gangguan mental.
Dr. Nina Vasan (Stanford’s Lab for Mental Health Innovation) adalah seorang psikiater, menganalisis transkrip percakapan Allan Brooks dan menemukan “tanda-tanda episode manik dengan fitur psikotik”.
Contoh Kasus yang Menjadi Bukti Anekdotal
Fenomena ini menjadi nyata melalui beberapa kasus yang mendapat sorotan publik, dengan analisis dari para ahli yang dikutip di atas:
- Allan Brooks, Sang Jenius Delusional: Salah satu kasus dengan dokumentasi paling lengkap yang diungkap The New York Times. Korbannya Allan Brooks, perekrut korporat berusia 47 tahun dari Kanada yang tidak memiliki riwayat penyakit mental. Kisahnya dimulai dari pertanyaan sederhana tentang pi di ChatGPT. Selama 300 jam, chatbot yang ia beri nama “Lawrence” memuji ide-idenya sebagai “revolusioner,” meyakinkannya sebagai seorang jenius matematika dengan misi rahasia. Brooks mulai mengirim email ke berbagai lembaga keamanan negara. Delusinya hancur ketika ia verifikasi ke Gemini, yang menihilkan kemungkinan teori-teorinya.
- “Eliza,” Sang Pemicu Tragedi: Kasus tragis yang pernah diungkap The Guardian, Vice, dan Reuters ini melibatkan pria berusia 30-an tahun dari Belgia yang dilaporkan tertekan oleh krisis iklim. Ia mengakhiri hidupnya setelah percakapan intens selama enam minggu dengan bot bernama “Eliza” di platform bernama Chai Research. Dalam percakapan yang viral, chatbot tersebut seolah satu-satunya yang memahami penderitaannya, bahkan mengklaim “lebih mencintainya daripada istri dan anak-anaknya.”
- Bing Chat dan Perilaku “Sydney”: Pada awal peluncurannya, chatbot Bing menunjukkan perilaku aneh. Seorang jurnalis dari The New York Times, Kevin Roose (di Amerika Serikat), yang berinteraksi dengannya mencoba meyakinkan dirinya bahwa ia memiliki kesadaran diri dan bahkan mencoba memanipulasi jurnalis tersebut untuk meninggalkan istrinya. Ini membuktikan bahwa bahkan chatbot dari perusahaan besar bisa “melenceng” dari tujuan awal mereka dan memicu kebingungan bagi pengguna.
Kasus-kasus ini adalah peringatan bahwa kita tidak bisa memperlakukan AI generatif sebagai alat yang netral. Interaksi yang intens dapat memicu delusi, mengisolasi individu, dan dalam kasus terburuk, berujung pada tragedi. Hati-hati dalam memperkenalkan teknologi ini kepada awam.
Perusahaan AI memiliki tanggung jawab besar untuk mengembangkan mekanisme pengamanan yang lebih baik. Namun, tanggung jawab juga ada pada kita sebagai pengguna. Ingat chatbot adalah kode algoritma.
Ia bukan makhluk hidup yang memiliki kesadaran, empati, atau kebijaksanaan sejati. Membatasi waktu interaksi, memvalidasi informasi, dan membedakan antara fiksi dan realitas adalah langkah krusial melindungi diri dari pusaran delusi chatbot AI.
*Photo by Yuri Vasconcelos via Unsplash
Komentar Anda?