
Ada mitos tentang Akal Imitasi (AI) yang menyatakan bahwa teknologi ini tidak tergantung pada manusia sebagai pekerja. Faktanya tak semewah itu. Masih dibutuhkan pekerja “kerah biru” untuk membuat AI tampak canggih.
Tahukah Anda di balik setiap inovasi OpenAI yang memukau, ada sentuhan manusia yang tak tergantikan. Dengan sekitar 2.100 karyawan tetap pada skala global, kompleksitasnya melampaui sekadar algoritma.
Angka-angka inipun belum tentu sesuai kenyataan, mengingat OpenAI belum merilis rincian keuangan. Dari berbagai sumber, manusia yang terlibat di OpenAI bisa mencapai 3.500–4.400 orang bila menghitung total staf termasuk kontraktor, anotator, fellows, dan mitra.
Dengan staf tak sampai lima ribu orang, biaya SDM di OpenAI mencapai ± $3 miliar atau Rp48 triliun per tahun (kurs Rp16 ribu/USD). Di luar itu, ada pengeluaran sekitar $13 miliar untuk komputasi (mesin) dengan Microsoft saja pada 2025, meningkat dari sekitar $5 miliar pada 2024.
Bandingkan dengan Bank Rakyat Indonesia (BRI), dengan perkiraan total karyawan 79.400 orang, beban biayanya Rp18,2 triliun per tahun. Atau yang paling dekat dengan teknologi, Telkom Indonesia, dengan ± 20.900 orang staf “hanya” membayar Rp8,6 T per tahun.
Tentu saja perbandingan ini tidak sepenuhnya apple to apple, tetapi cukup untuk membayangkan betapa di Indonesia belum ada perusahaan yang sebanding—khususnya di bidang AI. Menggambarkan betapa besar kesenjangan negara produsen dengan konsumen AI.
Pengeluaran infrastruktur komputasi OpenAI mungkin jauh melampaui biaya personel, meski begitu menggambarkan perpaduan kompleks antara komputasi dan manusia. Peran manusia adalah fokus utama tulisan ini.
Lazimnya ada tiga tahapan umum sebelum AI generatif bisa berfungsi: Mengekstrak data, mengolah data, kemudian menguji dan memperbaiki data. Dua tahap awal memang tergantung pada kemampuan komputasi, tetapi bagian akhir adalah peran manusia yang tak tergantikan.
Sunggu ironis saat pekerja “kerah biru” ini justru dihantui eksploitasi. Pekerjaan “klik” yang mereka lakukan cenderung mudah dialihdayakan, sehingga perusahaan perekrut bisa memecat pekerja dari satu lokasi dan merekrut dari tempat lain seenaknya.
Setidaknya ini yang bisa Anda temukan dalam buku Karen Hao: “Empire of AI” yang mengkritisi OpenAI.
Fondasi OpenAI Dibangun Manusia
Tapi kita tidak akan bicara soal buku Karen Hao. Itu topik lain yang bisa dibahas dalam artikel lain. Kali ini kita mau lihat bagaimana peran manusia di balik kecanggihan AI generatif yang populer itu.
Sebuah model AI generatif bisa “belajar” dan menghasilkan konten karena data dalam jumlah besar dan berkualitas tinggi. Data ini, yang bisa berupa teks, gambar, audio, atau video, harus dikumpulkan, dibersihkan, dan yang terpenting, dilabeli secara cermat.
Membersihkan dan melabel data
Lantaran LLM sangat sensitif terhadap noise dan bias, perlu tahap yang disebut preprocessing. Contohnya adalah: Menghapus HTML & tag; Filtering konten toksik/hate speech; Menghapus redundansi dan spam; atau Menyaring berdasarkan bahasa atau domain.
Pada tahap inilah pelabelan data penting, pekerjaan intensif yang seringkali melibatkan ribuan pekerja, internal maupun melalui vendor pihak ketiga di seluruh dunia. Manusia berperan sebagai Anotator Data, merekalah yang memberi anotasi pada data sebagai bahan belajar mesin.
Misalnya, anotasi gambar dengan mengidentifikasi objek, wajah, atau pemandangan; Mengkategorikan teks seperti sentimen, topik, atau entitas; Mentranskripsi audio, atau memberi label pada segmen video.
Peran ini terlihat dalam deskripsi pekerjaan OpenAI untuk posisi terkait data. Contohnya mencakup frasa: “Menganotasi dan mengkategorikan kumpulan data besar teks/gambar/audio untuk melatih model AI.”
Memvalidasi dan kurasi data
Ada pula yang menjadi Validator Data, mereka yang memeriksa kualitas dan konsistensi label yang diberikan oleh anotator lain untuk memastikan akurasi data pelatihan. Ini adalah praktik standar dalam pemrosesan data.
Kurator Dataset juga diperlukan untuk mengidentifikasi dan menyaring data yang tidak relevan, bias, atau berbahaya dari kumpulan data besar. Tujuannya memastikan model belajar bersih dan representatif, sesuai metodologi yang diinginkan.
Sebagai contoh, OpenAI dalam postingan blog mereka “DALL·E 2 pre-training mitigations” pada Juni 2022, menjelaskan upaya mengurangi bias, seperti bias gender dalam pembuatan gambar “CEO”, melalui proses penyaringan data pelatihan.
Tanpa pelabelan yang cermat, model kesulitan memahami konteks, mengenali pola, atau menghasilkan output yang relevan dan akurat. Ini adalah tugas krusial yang menuntut ketelitian, menjadi fondasi bagi “kecerdasan” yang kita lihat pada model generatif.
Pelatihan Model OpenAI Dibimbing Manusia
Salah satu inovasi kunci OpenAI, terutama dalam pengembangan model bahasa besar seperti ChatGPT, adalah penggunaan Reinforcement Learning from Human Feedback (RLHF).
Ini adalah proses iteratif saat model belajar dari umpan balik manusia, menyelaraskan perilakunya dengan preferensi dan nilai-nilai manusia. Penjelasannya dalam publikasi OpenAI, “Training language models to follow instructions with human feedback“.
Peran manusia tak kalah penting. Misal sebagai Pelatih AI (Human AI Trainers), yang berinteraksi langsung dengan model. Mereka memberi prompt, mengevaluasi respons model, dan memberi peringkat atau perbandingan berdasarkan kualitas, kebenaran faktual, relevansi, keamanan, dan kesesuaian etika.
Peran ini juga bisa ditemukan dalam Deskripsi Pekerjaan OpenAI. Contohnya: “Memberikan umpan balik yang terperinci dan bernuansa pada output model bahasa besar,” atau “Mengevaluasi respons model terhadap berbagai prompt, menilai akurasi, koherensi, dan keamanan.”
Manusia juga diperlukan sebagai Penyedia Data Preferensi. Umpan balik dari pelatih AI digunakan untuk melatih “model hadiah” (reward model), yang kemudian digunakan untuk mengoptimalkan model generatif utama melalui pembelajaran penguatan, inti dari RLHF.
Para pelatih yang memahami nuansa bahasa, etika, dan konteks budaya dibutuhkan dalam proses Penyelarasan Nilai. Mereka membantu model tidak hanya menjadi cerdas secara teknis, tetapi juga bertanggung jawab, benar-benar bermanfaat, dan tidak bias.
Proses ini secara aktif membentuk kepribadian dan perilaku model, memastikan mereka tidak menghasilkan konten yang berbahaya, diskriminatif, atau tidak akurat. Komitmen ini sering ditegaskan dalam wawancara dan presentasi dari eksekutif/peneliti AI dari OpenAI.
Presentasi “Collective Alignment: Enabling Democratic Inputs to AI” oleh OpenAI pada April 2024, membahas pentingnya melibatkan publik dalam menentukan bagaimana AI harus berperilaku untuk menyelaraskan model dengan nilai-nilai kemanusiaan.
OpenAI Punya Penjaga Gerbang Etika AI
Bahkan setelah model dilatih dan disebarkan untuk penggunaan publik, peran manusia tidak berhenti. Model AI generatif, karena sifatnya yang dapat menghasilkan konten baru, berpotensi menghasilkan output yang tidak diinginkan, tidak akurat, atau bahkan berbahaya.
Di sinilah tim moderasi konten manusia berperan sebagai garis pertahanan terakhir. Dalam Blog Resmi OpenAI, mereka pernah merilis pembaruan terkait kebijakan penggunaan dan fitur keamanan, “An update on our safety & security practices” yang diterbitkan pada September 2024.
Penjelasan ini memerinci langkah-langkah yang diambil OpenAI untuk memperkuat keamanan dan praktik keselamatan untuk para pengguna. Selain itu, laporan Optiv “Creating an AI Security Policy“, sering membahas pentingnya kebijakan keamanan AI dan manajemen risiko pihak ketiga.
Apa yang dilakukan manusia dalam memoderasi konten? Di antaranya, berperan sebagai Peninjau Konten. Mereka meninjau luaran model yang dilaporkan oleh pengguna atau yang ditandai oleh sistem secara otomatis. Memastikan sesuai dengan batasan etika AI.
Etika AI sangat penting agar pengguna tidak menyalahgunakan teknologi ini. Misal, publik tidak membuat deepfake yang melanggar hukum, siswa atau mahasiswa tidak menggunakannya untuk mencontek atau mencari jawaban ujian, dan penggunaan tidak etis lainnya.
Para penunjau ini mengidentifikasi pelanggaran kebijakan, menilai tingkat keparahan, dan membuat keputusan tentang tindakan yang diperlukan (misalnya, menghapus konten, memberikan peringatan kepada pengguna).
Untuk mengatur penggunaan, perlu Pengembang Kebijakan. Manusia memperbarui kebijakan penggunaan, tentang apa yang boleh dan tidak boleh dihasilkan model. Mereka juga memberikan umpan balik terus-menerus untuk memperbaiki sistem moderasi otomatis.
Selain itu, butuh orang dalam Penanganan Kasus Kompleks atau ambigu. Meskipun OpenAI juga punya AI untuk moderasi konten (seperti Moderation API), keputusan akhir seringkali butuh penilaian manusia yang bernuansa dan paham konteks secara mendalam.
Pengembangan dan Penelitian
Di luar operasional harian dan pelatihan model, seluruh arah penelitian dan pengembangan di OpenAI didorong oleh tim peneliti dan insinyur manusia. Mereka adalah otak di balik algoritma baru, arsitektur model yang inovatif, dan visi jangka panjang untuk AI.
Hal ini jelas terlihat dari struktur tim yang diuraikan OpenAI, seperti artikel “OpenAI leadership team update” yang diterbitkan pada Mei 2022. Di sana ada peran eksekutif dan menyoroti tim yang mendukung kemajuan AI.
Berbeda dengan pekerjaan “kerah biru” yang relatif sederhana, peran kunci pekerja “kerah putih” lebih eksklusif. Di antaranya Peneliti AI, yang merancang eksperimen, mengembangkan teori baru pembelajaran mesin, dan mendorong batas-batas kemampuan AI.
Kemudian ada Insinyur Pembelajaran Mesin. Mereka membangun dan mengoptimalkan infrastruktur untuk melatih model besar, serta menerjemahkan ide-ide penelitian menjadi produk yang dapat digunakan.
Ahli Etika AI dan Spesialis Keamanan melakukan identifikasi serta mitigasi risiko AI, memastikan pengembangan yang bertanggung jawab, dan mengatasi masalah bias, privasi, serta dampak sosial.
Di bagian “paling depan”, ada Manajemen Produk dan Desainer UX yang memastikan produk AI relevan dengan kebutuhan pengguna dan mudah digunakan, menjembatani kesenjangan antara teknologi dan pengalaman manusia.
Kreativitas, intuisi, pemikiran kritis, dan kemampuan pemecahan masalah manusia adalah pendorong utama kemajuan di bidang ini. Tanpa visi dan arahan manusia, AI akan menjadi sekadar kumpulan algoritma tanpa tujuan.
OpenAI, dan perusahaan AI terkemuka lainnya, menyadari bahwa sentuhan manusia sangat penting untuk membangun AI yang aman, bermanfaat, dan selaras dengan nilai-nilai kemanusiaan.
Penting untuk mengingat bahwa kemajuan sejati tidak akan datang dari AI yang beroperasi dalam isolasi, tetapi dari kemitraan yang kuat antara kecerdasan buatan dan kecerdasan manusia.
*Foto olahan dengan AI, dari karya Katja Anokhina di Unsplash