Beranda  »  Artikel » Teknologi Digital   »   Deteksi Hate Speech Beralih ke Hybrid

Deteksi Hate Speech Beralih ke Hybrid

Oleh: Melekmedia -- 10 Oktober, 2025 
Tentang: ,  –  Komentar Anda?

two hands touching each other in front of a blue background

Sejak riset University of Pennsylvania mengungkap inkonsistensi serius dalam deteksi ujaran kebencian oleh AI, masalah tersebut belum juga terselesaikan. Studi terbaru masih mengonfirmasi bahwa celah ini masih persisten.

Dalam laporan kami sebelumnya, peneliti Annenberg School for Communication, University of Pennsylvania menemukan model-model AI terkemuka dari OpenAI, Google, dan DeepSeek menunjukkan inkonsistensi drastis dalam mengidentifikasi ujaran kebencian.

Apa yang ditandai satu model sebagai konten berbahaya, bisa dianggap biasa saja oleh model lain. Situasi ini mendorong industri untuk mengadopsi pendekatan baru yang mengombinasikan kecerdasan buatan dengan moderasi manusia.

Sayangnya, penelitian yang dipublikasikan pada pertengahan 2025 itu mengonfirmasi masalah inkonsistensi masih berlanjut. Sistem AI dari raksasa teknologi seperti OpenAI, DeepSeek, dan Google tetap menunjukkan perbedaan dalam mengklasifikasikan konten yang sama.

Studi terhadap model-model AI generasi terbaru menemukan bahwa meski ada peningkatan akurasi, inkonsistensi dalam pendekatan deteksi belum terselesaikan. Model masih kesulitan dengan konten mengandung ambiguitas, bahasa terselubung, atau konteks budaya kompleks.

Tantangan ini semakin kompleks dalam konteks Indonesia. Pencampuran bahasa daerah, bahasa gaul, dan bahasa formal dalam postingan medsos menjadi hambatan besar bagi AI. Kemampuan memahami nuansa budaya lokal dan konteks sosial yang spesifik masih jauh dari sempurna.

Upaya Peningkatan Teknologi

Pada tahun 2025, berbagai penelitian menunjukkan tantangan dalam deteksi ujaran kebencian oleh sistem akal imitasi (AI) masih berlanjut, terutama dalam konteks Bahasa Indonesia yang kompleks. Masalah inkonsistensi dan ketidakmampuan masih jadi isu.

Sebuah penelitian bertajuk Ngalawan Ujaran Sengit: Hate Speech Detection in Indonesian Code-Mixed Social Media Data” (Springer, 2025) menyoroti bahwa pencampuran bahasa daerah, bahasa gaul, dan bahasa formal dalam satu unggahan merupakan hambatan besar bagi sistem AI.

Model yang dilatih pada data tunggal sering kali gagal memahami nuansa makna dalam konteks sosial Indonesia. Penelitian ini setidaknya menyaring korpus ujaran kebencian yang ditulis dalam kombinasi bahasa Indonesia-Jawa dan Indonesia-Sunda.

Dengan mendekatkan Bahasa Jawa-Sunda dengan Indonesia, riset menunjukkan model dengan bahasa-bahasa yang memiliki kekerabatan linguistik dekat memberikan performa lebih baik dibandingkan model yang dilatih dengan bahasa yang memiliki jarak linguistik lebih jauh.

Selain itu, studi “Multimodal Sentiment Analysis in Indonesian: A Comparative Study of Deep Learning Models for Hate Speech Detection on Social Media” (JILTECH, Juli 2025) mengonfirmasi bahwa pendekatan multimodal mendapatkan hasi lebih baik.

Multi modal artinya menggabungkan analisis teks, gambar, dan elemen visual lain, ternyata lebih efektif dibandingkan model berbasis teks saja. Sistem yang menggunakan kombinasi CNN dan RNN menunjukkan hasil lebih baik dalam mengidentifikasi ujaran kebencian.

Sebenarnya ada dataset seperti IndoToxic2024 (ArXiv, 2024) yang menyediakan sumber daya penting bagi pengembangan model deteksi ujaran kebencian yang sensitif terhadap konteks sosial dan demografis di Indonesia.

Dataset ini terdiri dari 43.692 entri yang dianotasi oleh 19 individu dengan latar belakang beragam, dan berfokus pada teks-teks yang menargetkan kelompok rentan di Indonesia, khususnya selama peristiwa politik paling panas di negara ini: Pemilihan Presiden.

Arah Pengembangan Teknologi

Beberapa penelitian terkini mengusulkan integrasi Explainable AI (XAI) dalam sistem moderasi untuk meningkatkan transparansi keputusan. Meskipun belum ada laporan yang menyebut akurasi di atas 90% secara konsisten dalam konteks Indonesia, pendekatan ini dianggap penting.

Explainable AI (XAI) adalah pendekatan dalam pengembangan akal imitasi yang bertujuan membuat proses pengambilan keputusan AI menjadi transparan, dapat dipahami, dan dapat dijelaskan kepada manusia.

Dalam sistem AI konvensional, terutama yang berbasis deep learning, keputusan sering kali dihasilkan melalui proses yang sangat kompleks dan sulit dijelaskan — hal ini dikenal sebagai “black box problem”. XAI hadir untuk mengatasi masalah ini dengan menjawab pertanyaan seperti:

  • Mengapa model mengambil keputusan tertentu?
  • Faktor apa yang paling memengaruhi hasil prediksi?
  • Apakah keputusan model konsisten dan adil?

Praktik terbaik saat ini mengarah pada model hybrid, ketika AI digunakan untuk penyaringan awal terhadap pelanggaran yang jelas, sementara moderator manusia menangani kasus yang lebih kompleks dan bernuansa.

Pendekatan ini telah diadopsi secara luas oleh berbagai platform global seperti Meta (Facebook) dengan Oversight Board, serta Reddit dan TikTok yang meningkatkan jumlah moderator manusia untuk konteks lokal.

Implikasi untuk Indonesia

Dalam konteks Indonesia, tantangan bahasa, budaya, dan konteks sosial menjadikan ketergantungan penuh pada AI tidak realistis. Platform media sosial perlu melibatkan moderator lokal yang memahami konteks budaya dan bahasa untuk memastikan keadilan dalam moderasi konten.

Dari sisi penelitian, kolaborasi antara akademisi, pembuat kebijakan, dan industri menjadi kunci. Pengembangan dataset lokal seperti IndoToxic2024 dan model yang disesuaikan dengan konteks Indonesia adalah langkah penting menuju moderasi yang lebih akurat dan adil.

Meskipun ada kemajuan signifikan dalam teknologi AI, deteksi ujaran kebencian masih menghadapi keterbatasan dalam hal konsistensi dan konteks. Pendekatan hybrid yang memadukan kekuatan AI dan penilaian manusia menjadi solusi paling realistis saat ini.

Masa depan moderasi konten terletak pada kolaborasi antara teknologi canggih dan pemahaman manusia yang mendalam terhadap konteks budaya.

*Photo by Igor Omilaev via Unsplash

Artikel lain sekategori:

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Situs ini menggunakan Akismet untuk mengurangi spam. Pelajari bagaimana data komentar Anda diproses

```


Exit mobile version