
Model-model AI terkemuka menghadapi krisis kredibilitas di dunia jurnalisme. Investigasi terbaru menemukan model GenAI sering membuat kesalahan fatal yang mengancam akurasi dan integritas berita. Keandalan AI untuk jurnalisme profesional masih diragukan.
Sebuah investigasi yang dipimpin oleh profesor jurnalisme NYU, Hilke Schellmann, mengungkap fakta baru: Model-model AI terkemuka seperti Google’s Gemini 2.5 Pro dan OpenAI’s GPT-4o masih sangat tidak andal untuk tugas-tugas jurnalisme penting.
Menurut lansiran Futurism.com, performa model-model AI tersebut diuji dalam dua tugas utama, meringkas berita dan melakukan riset ilmiah. Model AI dapat membuat ringkasan dengan “hampir tidak ada halusinasi” kalau tulisannya pendek.
Namun, saat diminta membuat ringkasan yang lebih panjang, yaitu sekitar 500 kata, model-model ini secara sistematis “menurun performanya dibandingkan standar manusia.” AI sering gagal menyertakan sekitar separuh fakta penting, malah menciptakan lebih banyak halusinasi.
Kerentanan yang lebih serius ditemukan dalam tugas riset ilmiah. Ketika diminta untuk menemukan makalah ilmiah terkait, sebagian besar alat AI mengidentifikasi kurang dari 6% dari makalah yang sudah ditemukan oleh tim peneliti manusia.
Dalam beberapa kasus, model AI gagal menemukan satu pun makalah yang relevan. Kesalahan fatal ini sangat berbahaya karena daftar referensi yang tidak akurat dapat menyesatkan jurnalis dan berujung pada misinformasi publik tentang terobosan ilmiah.
Temuan Sebelumnya dalam AI untuk Jurnalisme
Temuan senada pernah dilaporkan oleh studi lain. Investigasi BBC menemukan lebih dari 50% tanggapan yang dihasilkan AI punya “masalah signifikan.” Di antaranya kesalahan faktual, salah sumber, konteks hilang atau menyesatkan, bahkan gagal mengutip artikel dari BBC sendiri.
Selain masalah akurasi, laporan lain dari Berdu.id dan GetGenie AI menyoroti keterbatasan AI dalam hal:
- Kreativitas dan Orisinalitas: AI cenderung minim kreativitas karena hanya mereplikasi pola dari data yang sudah ada, menghasilkan konten yang terasa robotik dan tanpa “sentuhan” personal.
- Pemahaman Konteks dan Nuansa Budaya: AI sering kali kesulitan memahami konteks yang kompleks atau sensitif, yang berisiko menciptakan kesalahpahaman atau konten yang tidak pantas.
- Bias Algoritma: Karena dilatih dengan data dari internet, AI dapat memperkuat prasangka atau stereotip yang ada, yang berpotensi menghasilkan pelaporan yang tidak seimbang atau bias.
Menurut para ahli dalam Reuters Institute, bias ini bukanlah “bugs” atau kesalahan pemrograman, melainkan “fitur” tak terhindarkan. Akar masalahnya data yang sering kali didominasi kelompok tertentu, yang secara tidak sengaja (atau tidak peduli) telah mengabaikan keberagaman.
Mengancam Kualitas dan Kredibilitas
Mesin dinilai belum menggantikan kejelian, etika, dan keakuratan yang menjadi pilar utama jurnalisme manusia. Manusia tetap lebih baik, sehingga ketergantungan pada AI tanpa proses pengecekan ulang jadi “salah satu kesalahan paling umum” yang dilakukan jurnalis saat ini.
Ditulis di Frontiers, meluasnya kehadiran AI memunculkan tantangan etika, termasuk risiko disinformasi dan “ancaman eksistensial” terhadap masa depan jurnalisme. Jika internet dipenuhi “sampah” (slop) buatan AI, pekerjaan jurnalisme berkualitas akan makin sulit ditemukan.
Apalagi dengan bias AI-ke-AI, yang membuat mesin-mesin GenAI punya preferensi yang konsisten dan kuat dari AI terhadap konten yang dihasilkan oleh sesama AI. Bayangkan saat konten buatan AI mendominasi, lalu mesin AI yang lain merekomendasikannya ke manusia.
Dalam konteks Indonesia, pemerintah melalui Kemkominfo juga tengah menyusun regulasi etika AI sebagai upaya untuk memperkuat prinsip-prinsip ini. Jurnalisme yang bertanggung jawab harus mengadopsi AI sebagai alat bantu, bukan pengganti jurnalis.
*Photo by Google DeepMind via Pexels
Komentar Anda?