Beranda  »  Sorotan Media   »   Ancaman di Balik Keamanan AI

Ancaman di Balik Keamanan AI

Oleh: Melekmedia -- 23 Agustus, 2025 
Tentang: ,  –  Komentar Anda?

a metal padlock on a wooden table

Sekian banyak perusahaan yang berlomba mengembangkan teknologi akal imitasi (AI), tak satupun yang siap dengan mitigasi keamanan. Bahkan untuk aspek keamanan AI yang berurusan dengan masa depan eksistensi manusia di muka bumi.

Laporan dari Future of Life Institute mengungkap upaya keamanan AI di tujuh perusahaan teknologi terbesar dunia. Studi selama tiga bulan ini menilai seberapa serius perusahaan seperti OpenAI, Google, atau Meta dalam menjaga keamanan teknologi AI mereka yang kian canggih.

Para peneliti bertindak seperti detektif teknologi, menyelidiki 33 aspek keamanan AI yang tersebar dalam enam kategori penting. Mereka menggali seberapa transparan perusahaan-perusahaan ini dalam menjelaskan cara kerja AI mereka kepada publik.

Rapor Merah Perusahaan Pengembang AI

Hasilnya bikin geleng-geleng kepala. Meskipun perusahaan-perusahaan ini sering berjanji akan mengutamakan keamanan dalam setiap pidato dan konferensi pers mereka, realitanya ternyata masih jauh panggang dari api.

Dari keenam kategori yang diukur dalam laporan bertajuk AI Safety Index Summer 2025 itu, industri dalam kondisi TIDAK SIAP untuk teknologi yang mereka kembangkan. Di antaranya menunjukkan:

  • Tidak ada perusahaan yang mendapat nilai keseluruhan lebih tinggi dari C+.
  • Gap antara ambisi teknologi dan kesiapan keamanan semakin melebar.
  • Tekanan kompetitif mengalahkan pertimbangan keamanan
  • Regulasi mandiri terbukti tidak memadai

Nilai tertinggi dicapai dalam kategori Information Sharing: Lumayan. Indikator ini mengukur seberapa terbuka perusahaan berbagi informasi tentang produk dan risiko. Misalnya tentang System Prompt Transparency, atau Serious Incident Reporting.

Kategori paling mengkhawatirkan adalah Existential Safety, kondisinya Sangat Buruk. Padahal ini yang memastikan AI tidak akan menghancurkan atau mengendalikan umat manusia. Perusahaan berlomba-lomba membangun AGI, tak satupun siapkan rencana aksi untuk mengendalikannya.

Ada Harapan tapi Lebih Banyak Tantangan

Beberapa temuan memang memberikan secercah harapan, seperti OpenAI yang dinilai paling transparan dalam kebijakan perlindungan whistleblower, atau Anthropic yang mendapat pujian atas framework keamanan mereka yang relatif komprehensif.

Namun, sisi gelap industri ini jauh lebih mengkhawatirkan. Meta, si raksasa media sosial, dinilai perlu meningkatkan investasi riset keamanan secara drastis, terutama untuk model AI yang bisa diunduh bebas oleh siapa saja.

Google, yang selama ini dianggap sebagai pionir teknologi, ternyata menghadapi masalah koordinasi internal yang serius antara tim keamanan dan tim kebijakan. Ini seperti rumah sakit di mana dokter dan perawat tidak saling berkomunikasi tentang kondisi pasien.

Sementara itu, perusahaan-perusahaan asal China seperti DeepSeek dan Zhipu masih jauh tertinggal, belum memiliki framework keamanan yang memadai.

Yang paling mengejutkan adalah kondisi xAI milik Elon Musk yang mengembangkan Grok. Sistem mereka memiliki kerentanan serius yang memungkinkan peretas atau pihak jahat untuk menyalahgunakan AI mereka dengan mudah. Ini seperti meninggalkan pintu rumah terbuka lebar di tengah malam.

Para Ahli Bicara Keamanan AI

Panel ahli independen yang terdiri dari enam peneliti terkemuka, termasuk Professor Stuart Russell dari UC Berkeley dan Dylan Hadfield-Menell dari MIT, tidak hanya mengkritik tetapi juga memberikan solusi konkret.

Mereka menekankan bahwa semua perusahaan AI wajib memiliki kebijakan perlindungan whistleblower yang jelas dan mudah diakses, bukan hanya sekedar tulisan di website yang terkubur di halaman terms and conditions.

Salah satu peninjau ahli mengkritik keras kurangnya transparansi metodologis, menyoroti “metodologi atau penjelasan eksplisit yang menghubungkan evaluasi atau prosedur eksperimental tertentu dengan risiko, beserta keterbatasan dan kualifikasinya, biasanya tidak ada.”

Investasi penelitian keamanan AI harus diprioritaskan, bukan jadi pengeluaran tambahan yang dipotong saat anggaran ketat. Jessica Newman, Direktur AI Security Initiative di UC Berkeley, bersama panel lainnya menekankan perlunya evaluasi pihak ketiga yang independen.

Seorang ahli bahkan menyatakan: “Saya sangat tidak yakin bahwa kemampuan berbahaya dapat dideteksi tepat waktu untuk mencegah kerugian yang signifikan. Investasi minimal secara keseluruhan dalam evaluasi pihak ketiga menurunkan kepercayaan saya lebih jauh.”

Perusahaan AI Didesak Lebih Peduli

Khusus untuk OpenAI, David Krueger dari University of Montreal yang jadi salah satu anggota panel, bersama koleganya menilai, “Fokus OpenAI pada keamanan telah menurun selama tahun terakhir, dan perusahaan telah kehilangan sebagian besar peneliti di bidang ini.”

Google didesak untuk segera memperbaiki koordinasi internal antara tim teknis dan kebijakan agar tidak ada lagi kebingungan dalam pengambilan keputusan keamanan.

Meta mendapat tekanan paling besar untuk segera meningkatkan riset keamanan, terutama mengingat model AI mereka bersifat open-source dan bisa diakses siapa saja. Sementara xAI harus segera menambal kerentanan keamanan mereka sebelum meluncurkan versi berikutnya.

“Kita membutuhkan pemikiran ulang yang mendasar tentang bagaimana kita mendekati keamanan AI. Ini bukan masalah untuk masa depan yang jauh; ini adalah masalah untuk hari ini,” kata Professor Stuart Russell.

*Photo by Arthur A via Unsplash

Artikel lain sekategori:

Komentar Anda?


Topik
Komentar
Materi Kursus