
Kecerdasan Buatan atau Akal Imitasi (AI) berkembang dengan kecepatan yang menakjubkan, menjanjikan manfaat luar biasa bagi umat manusia. Namun, seiring kemajuan ini, muncul pula kekhawatiran serius mengenai potensi ancaman yang ditimbulkannya terhadap masyarakat global.
Sebuah organisasi nirlaba asal San Fancisco (Amerika Serikat) bernama Center for AI Safety (CAIS) berdedikasi mengurangi risiko sosial dari AI. Misi utama mereka memastikan AI dikembangkan dan diterapkan dengan aman, serta melayani kebaikan publik.
CAIS meyakini mitigasi risiko terhadap kecanggihan AI adalah salah satu tantangan mendesak, mengingat kemajuannya melampaui upaya pengamanan. Pesatnya AI menciptakan kesenjangan yang menimbulkan risiko signifikan. Sementara hanya sekitar 3% dari penelitian teknis berfokus pada keamanan AI—sebagian besarnya pada pengembangan kemampuan.
Tak ayal perkembangan pesat ini “mengkhawatirkan”, misalnya saat AI mengungguli 90% pengacara dalam ujian mendapatkan lisensi praktik hukum di AS. Pun saat sistem AI mencapai atau bahkan melampaui kemampuan kognitif manusia dalam berbagai tugas atau domain.
Selain itu, ketiadaan tolok ukur standar dalam pengukuran risiko AI dapat mengaburkan gambaran nyata masa depan AI. CAIS bersama Scale AI tengah berupaya menjawab pertanyaan barusan lewat proyek “Humanity’s Last Exam“: Sebuah batu uji untuk mengukur kemampuan AI.
Proyek ini mengukur peningkatan kemampuan model AI, menggarisbawahi urgensi untuk percepatan upaya keamanan agar sejalan dengan kemajuan yang dicapai. Mereka menguji batas atas kemampuan model AI dengan mengumpulkan pertanyaan tersulit dari berbagai disiplin ilmu—melibatkan hampir 1.000 kontributor dari 500-an institusi dari 50 negara.
Hasilnya menunjukkan bahwa model AI tercanggih saat ini (April 2025) hanya mampu menjawab sekitar 10-20% dari 2.500 pertanyaan yang dikumpulkan. Namun, para peneliti CAIS memperkirakan pada akhir 2025, model-model ini bakal bisa menjawab hingga setengah dari pertanyaan tersebut dengan benar.
CAIS yakin keamanan AI bukan masalah teknis belaka, melainkan tantangan sosiologis yang membutuhkan pendekatan holistik. CAIS pun secara rutin menerbitkan Laporan Dampak Tahunan (Annual Impact Report), untuk mengkomunikasikan kemajuan dan akuntabilitas mereka kepada pemangku kepentingan, termasuk donor, peneliti, pembuat kebijakan, dan masyarakat.
Laporan-laporan ini, seperti pada 2023 dan 2024, memerinci pendekatan mereka terhadap keamanan AI, pencapaian dalam penelitian, upaya pembangunan sektor, dan inisiatif advokasi, serta memberi gambaran tentang bagaimana mereka mengatasi tantangan-tantangan krusial ini.

Ancaman Potensial AI terhadap Masyarakat Global
Berdasarkan laporan CAIS 2023 dan 2024, beberapa ancaman utama di antaranya (1) Penyalahgunaan AI sebagai senjata. Laporan CAIS 2024 secara spesifik menyoroti pengembangan Senjata Pemusnah Massal (WMD), termasuk senjata biologis, kimia, dan siber. Model AI juga dapat menyediakan informasi berbahaya atau memfasilitasi aktivitas merugikan.
Kekhawatiran muncul bilamana AI digunakan untuk mendesain patogen baru atau mengotomatisasi serangan siber yang kompleks. Meskipun belum ada kasus publik yang terverifikasi secara luas, skenario ini secara aktif disimulasikan dan dipelajari oleh komunitas keamanan siber dan biosekuriti global, termasuk peneliti dan lembaga pemerintah di berbagai negara, sebagai upaya pencegahan.
CAIS telah mengumpulkan lebih dari 50 ahli untuk mencari cara mencegah penggunaan AI dalam serangan siber dan ancaman biologis. Selain itu, mewaspadai upaya “jailbreaking” sistem AI, yaitu menerabas pengaman yang ada, sehingga memungkinkan model menghasilkan konten berbahaya seperti instruksi pembuatan bom atau pencurian identitas.
Ancaman lain adalah (2) Penyebaran misinformasi dan disinformasi. Sistem AI menunjukkan kemampuan menyebarkan misinformasi atau menghasilkan kampanye phishing yang canggih, seperti disebutkan dalam Laporan CAIS 2023. Misalnya, kasus deepfake Presiden Ukraina Volodymyr Zelenskyy di media sosial pada 2022 yang isinya menyerukan pasukan Ukraina untuk menyerah.
Meski dapat diidentifikasi sebagai video palsu, insiden ini menunjukkan teknologi AI dapat dimanfaatkan oleh aktor jahat untuk menyebarkan propaganda dan disinformasi secara cepat di tengah konflik global—dengan tujuan mengikis moral dan mempengaruhi opini publik secara luas. Seiring peningkatan kecerdasan sistem ini, risiko penyebaran disinformasi dapat meningkat di luar kendali, menimbulkan dampak serius pada masyarakat.
Ancaman berikutnya (3) Ketidakjelasan dalam proses pengambilan keputusan AI. Laporan CAIS 2023 menunjukkan proses pengambilan keputusan sistem AI terlalu kompleks, bahkan bagi para ahli. Hal ini tampak pada 2018, saat Amazon menghentikan sistem perekrutan berbasis AI mereka setelah menemukan bahwa algoritma tersebut secara “tidak sengaja” mendiskriminasi pelamar perempuan.
Sistem tersebut dilatih dengan data historis yang bias, menyebabkan preferensi terhadap kandidat pria dalam posisi teknis, tanpa ada transparansi mengenai bagaimana keputusan tersebut dibuat. Kasus ini menyoroti bias yang “tidak disengaja” dapat tersembunyi dalam algoritma AI, menyebabkan diskriminasi tidak adil di lingkungan kerja. Kurangnya transparansi menimbulkan kekhawatiran signifikan mengenai akuntabilitas dan potensi bias yang tidak terdeteksi dalam sistem AI.
Terakhir, dan yang paling ekstrem, adalah (4) risiko eksistensial pada skala sosial yang lebih besar. Laporan CAIS 2023 menyatakan mitigasi risiko kepunahan manusia lantaran AI harus menjadi prioritas global, setara dengan ancaman pandemi dan perang nuklir. Kekhawatiran ini mencakup skenario hipotetis saat AI yang sangat canggih—jika tidak selaras dengan nilai-nilai manusia—dapat mengejar tujuannya sendiri dengan cara yang merugikan umat manusia.
Para ilmuwan terkemuka seperti Stephen Hawking dan tokoh teknologi seperti Elon Musk, serta organisasi seperti Future of Life Institute, telah secara terbuka menyuarakan kekhawatiran tentang potensi AI super-intelijen sebagai ancaman eksistensial jika tidak dikelola dengan hati-hati.
Diskusi tentang topik ini telah berlangsung selama beberapa tahun terakhir di forum-forum global dan pusat penelitian AI di dunia. Perlu penelitian serius tentang keselarasan AI dan kontrol yang kuat untuk mencegah skenario saat AI mengambil alih infrastruktur kritis, atau mengoptimalkan sumber daya global tanpa mempertimbangkan dampak manusia.
Hal ini menggarisbawahi bahwa ancaman AI tidak hanya terbatas pada insiden kecil, tetapi berpotensi memiliki dampak yang masif pada skala masyarakat global.

Strategi Mitigasi yang Diusulkan CAIS
CAIS mengambil pendekatan holistik untuk mitigasi risiko AI, yang mencakup tiga pilar utama: penelitian, pembangunan bidang (field-building), dan advokasi.
Penelitian (Research): CAIS secara aktif mengidentifikasi, memahami, dan memitigasi tantangan keamanan AI paling mendesak. Ini termasuk bagaimana AI dapat “diakali” (jailbreak) dan bagaimana menambahkan pengamanan untuk mencegah dihasilkannya informasi berbahaya.
CAIS memperkenalkan Weapons of Mass Destruction Proxy (WMDP) Benchmark, sebuah dataset publik pertama untuk mengevaluasi pengetahuan berbahaya dalam model AI. Ia juga membantu peneliti membandingkan tingkat risiko.
Untuk mengatasi masalah jailbreaking, mereka mengembangkan “circuit breakers,” mekanisme yang bertindak seperti “tombol pemicu” untuk menginterupsi penalaran model saat mendekati konten yang tidak pantas.
Direktur CAIS, Dan Hendrycks, bahkan mengklaim “butuh dua puluh ribu upaya untuk melakukan jailbreak pada model yang dilatih dengan circuit breakers,” untuk menunjukkan efektivitasnya. Upaya global lainnya adalah “Humanity’s Last Exam,” yang menguji batas atas kemampuan model AI dengan pertanyaan tingkat ahli tersulit.
Pembangunan Bidang (Field-Building): Pilar ini bertujuan memperluas ekosistem keamanan AI melalui edukasi, dukungan komputasi, dan penguatan komunitas. CAIS memperluas akses ke pendidikan keamanan AI melalui kursus “AI Safety, Ethics & Society” yang mendapat rating rata-rata 4.3 dari 5. Mereka juga menerbitkan e-book tentang keamanan AI.
Mereka juga menyediakan akses komputasi gratis kepada peneliti, yang menurut Profesor David Wagner dari UC Berkeley, sangat penting karena tanpanya, banyak proyek penelitian keamanan LLM yang canggih tidak akan mungkin dilakukan.
CAIS juga membangun komunitas yang kuat dan interdisipliner melalui lokakarya dan kompetisi seperti SafeBench, yang telah berhasil memotivasi 93% mahasiswa yang mengikuti kursus mereka untuk mempertimbangkan karir di bidang keamanan AI.
Advokasi (Advocacy): CAIS bekerja secara proaktif dengan pembuat kebijakan dan industri untuk membentuk regulasi yang menyelarakan pengembangan AI dengan kepentingan publik. Ini termasuk upaya sukses dalam mengamankan pendanaan kongres sebesar $10 juta untuk U.S. AI Safety Institute dan mensponsori undang-undang keamanan AI di tingkat negara bagian, seperti California Senate Bill 1047 (SB 1047).
Meskipun SB 1047 akhirnya diveto, upaya ini secara signifikan membawa isu keamanan AI ke garis depan kebijakan negara bagian di AS. Selain itu, CAIS secara aktif meningkatkan kesadaran publik tentang risiko AI melalui publikasi dan media, dengan pernyataan mereka tentang risiko kepunahan AI yang menarik perhatian global, termasuk pujian dari Sekretaris Jenderal PBB Antonio Guterres.
CAIS juga berfungsi sebagai penasihat teknis, memberikan keahlian kepada pemerintah dan pemimpin industri untuk menginformasikan praktik terbaik dalam pengembangan AI yang aman.
Potensi ancaman AI terhadap masyarakat global adalah tantangan kompleks yang butuh pendekatan multidisiplin. CAIS jadi salah satu pelopor upaya mengidentifikasi risiko-risiko ini dan mengembangkan strategi mitigasi yang komprehensif melalui penelitian, pembangunan bidang, dan advokasi.
Upaya ini tidak dilakukan sendiri; berbagai lembaga lain di seluruh dunia juga bekerja dengan tujuan serupa. Contohnya termasuk U.S. Artificial Intelligence Safety Institute (USAISI) yang didirikan oleh NIST di Amerika Serikat, The AI Security Institute (AISI) di Inggris sebagai organisasi pertama yang didukung negara untuk keamanan AI.
Ada juga Anthropic sebagai perusahaan nirlaba terkemuka yang berfokus pada keamanan AI, Future of Life Institute yang menyoroti risiko eksistensial dari AI, serta Partnership on AI dan AI Now Institute yang berfokus pada implikasi sosial dan etika AI.
Dengan kolaborasi pemerintah, industri, akademisi, dan masyarakat sipil, ada harapan untuk membangun masa depan AI yang melayani kemanusiaan dengan aman dan bertanggung jawab. Seperti ditekankan CAIS:
“Keamanan AI bukanlah hanya tantangan teknis—ini adalah tantangan sosial, dan mengatasinya akan membutuhkan masukan dari setiap sektor. Di CAIS, kami siap menghadapi tantangan itu. Ini adalah jendela kesempatan untuk mendapatkan keamanan AI yang benar.”
Photo by Huzeyfe Turan on Unsplash
Komentar Anda?