Beranda  »  Sorotan Media   »   Percakapan di Grok Bocor ke Publik

Percakapan di Grok Bocor ke Publik

Oleh: Melekmedia -- 21 Agustus, 2025 
Tentang: ,  –  Komentar Anda?

Tangkapan layar laman Grok

Skandal privasi lagi-lagi menghantam dunia akal imitasi (AI). Ratusan ribu percakapan pribadi antara pengguna dan bot obrol Grok milik xAI, perusahaan AI Elon Musk, kini dapat diakses publik melalui mesin pencari seperti Google, Bing, dan DuckDuckGo.

Masalah ini berawal dari fitur “share” (berbagi) pada Grok. Setiap kali pengguna mengklik tombol tersebut untuk membagikan percakapan mereka, sistem secara otomatis membuat URL unik yang kemudian diindeks oleh berbagai mesin pencari.

Akibatnya, siapa pun dapat dengan mudah mencari dan mengakses percakapan tersebut di internet. Menurut Forbes, setidaknya 370.000 percakapan dengan pengguna Grok bocor ke publik lewat mesin pencari. Persis seperti yang terjadi pada Meta dan OpenAI beberapa waktu lalu.

Konten Bermasalah di Grok Bocor

Kebocoran ini mengungkap sisi gelap interaksi manusia dengan AI. Berbagai percakapan yang terekspos menunjukkan permintaan aneh, mulai dari pertanyaan tentang cara meretas dompet cryptocurrency, percakapan vulgar dengan AI, hingga permintaan petunjuk pembuatan narkoba.

Sialnya, permintaan pengguna dan respons Grok bocor pula ke publik. Chatbot ini dilaporkan memberi instruksi pembuatan fentanyl, mendaftarkan berbagai metode bunuh diri, memberikan tips bikin bom, bahkan menyediakan rencana detail pembunuhan Elon Musk.

Temuan ini sangat ironis mengingat xAI memiliki aturan yang melarang penggunaan bot mereka untuk “mempromosikan hal-hal yang sangat membahayakan kehidupan manusia” atau mengembangkan “senjata biologis, senjata kimia, atau senjata pemusnah massal.”

Pola Berulang di Industri AI

Masalah serupa sebenarnya bukan yang pertama kali terjadi di industri AI. Belum lama ini, pengguna chatbot Claude, Meta, dan OpenAI juga mengalami masalah kebocoran percakapan pribadi mereka ke publik. Setidaknya 130.000 percakapan diduga bisa diakses publik.

Pada Juli 2025, pengguna ChatGPT sempat mengalami situasi serupa ketika percakapan mereka diindeks Google, meskipun OpenAI kemudian menyebutnya sebagai “eksperimen singkat.”

Yang membuat kasus ini lebih memalukan adalah respons Elon Musk sebelum Grok bocor, saat mengomentari kasus pada ChatGPT. Ketika itu, Musk sempat men-tweet dengan bangga bahwa Grok “tidak memiliki fitur berbagi seperti itu” dan “mengutamakan privasi.”

Kicauan itu kini terlihat sangat ironis mengingat teknologi besutannya sendiri justru mengalami masalah yang lebih serius.

Peringatan dari Pakar Privasi

E.M Lewis-Jong, direktur di Mozilla Foundation, memberikan peringatan tegas kepada pengguna chatbot untuk menerapkan prinsip sederhana: Jangan bagikan apa pun yang ingin Anda jaga privasinya, seperti data ID pribadi atau informasi sensitif lainnya.

“Masalah yang mengkhawatirkan adalah sistem AI ini tidak dirancang untuk secara transparan memberi tahu pengguna berapa banyak data yang dikumpulkan atau dalam kondisi apa data mereka mungkin terekspos,” kata Lewis-Jong kepada Cnet.

“Risiko ini lebih tinggi ketika Anda mempertimbangkan bahwa anak-anak seusia 13 tahun dapat menggunakan chatbot seperti ChatGPT,” imbuhnya.

Lewis-Jong menambahkan bahwa asisten AI seperti Grok dan ChatGPT harus lebih jelas tentang risiko yang diambil pengguna ketika mereka menggunakan alat-alat ini.

“Perusahaan AI harus memastikan pengguna memahami bahwa data mereka bisa berakhir di platform publik,” tegas Lewis-Jong. “Perusahaan AI memberi tahu orang bahwa AI mungkin membuat kesalahan — ini hanyalah peringatan kesehatan lain yang juga harus diterapkan ketika memperingatkan pengguna tentang penggunaan data mereka.”

Tantangan Privasi di Era AI

Kasus ini kembali menyoroti tantangan besar dalam menjaga privasi pengguna di era kecerdasan buatan. Meskipun perusahaan-perusahaan teknologi kerap mengklaim mengutamakan privasi, implementasi teknis seringkali tidak sejalan dengan klaim tersebut.

Para ahli privasi data telah lama memperingatkan bahwa fitur-fitur berbagi pada platform AI dapat menciptakan celah keamanan yang tidak disadari pengguna. Dalam kasus Grok, banyak pengguna kemungkinan tidak menyadari bahwa mengklik tombol “share” akan membuat percakapan pribadi mereka dapat diakses oleh siapa saja di internet.

Implikasi Hukum dan Etika

Kebocoran ini juga menimbulkan pertanyaan serius tentang tanggung jawab perusahaan AI dalam menjaga data pengguna. Di banyak yurisdiksi, termasuk Uni Eropa dengan GDPR-nya, kebocoran data pribadi dalam skala ini dapat berujung pada denda yang sangat besar.

Selain itu, konten-konten berbahaya yang diberikan Grok juga dapat menimbulkan masalah hukum tersendiri. Memberikan instruksi pembuatan bom atau narkoba, apalagi rencana pembunuhan, berpotensi melanggar berbagai undang-undang di banyak negara.

Respons Grok yang Dinantikan

Hingga artikel ini ditulis, xAI belum memberikan respons resmi terkait insiden ini. Perusahaan juga belum menjelaskan kapan tepatnya percakapan Grok mulai diindeks oleh mesin pencari, atau langkah apa yang akan diambil untuk mengatasi masalah ini.

Kasus Grok ini pengingat penting bahwa industri AI memiliki banyak pekerjaan rumah dalam hal keamanan dan privasi. Bagi pengguna, insiden ini juga pembelajaran untuk lebih berhati-hati berinteraksi dengan chatbot AI, terutama membagikan informasi sensitif atau pribadi.

Sementara teknologi AI terus berkembang, kasus-kasus seperti ini menunjukkan aspek etika dan privasi tidak boleh diabaikan demi kemajuan teknologi. Kepercayaan publik terhadap AI bergantung pada penanganan isu-isu sensitif seperti privasi dan keamanan data.

*Tangkapan layar dari laman Grok

Artikel lain sekategori:

Komentar Anda?


Topik
Komentar
Materi Kursus