
Pada Oktober 2025, National AI Centre (NAIC) Australia meluncurkan Guidance for AI Adoption, sebuah kerangka kerja nasional yang dirancang untuk membantu bisnis Australia mengadopsi teknologi kecerdasan buatan secara aman dan bertanggung jawab.
Panduan ini pembaruan pertama dari Voluntary AI Safety Standard yang sebelumnya dirilis pemerintah, dengan perubahan signifikan yang merespons masukan ekstensif dari industri sepanjang tahun 2024-2025.
Perubahan paling mencolok adalah penyederhanaan struktur panduan, dari 10 guardrail, kini NAIC menjadi hanya 6 praktik kunci. Ini bukan sekadar pengurangan, melainkan uoaya memberikan arahan yang lebih jelas, sederhana, dan dapat langsung diterapkan oleh pelaku bisnis.
Panduan ini dirilis dalam dua berkas, yang satu tentang Foundations, yang memberitahu organisasi apa yang harus mereka lakukan untuk bertanggung jawab dalam AI; dan berkas lainnya menjelaskan Implementation Practices, tentang bagaimana cara melakukannya.
Adapun National AI Centre (NAIC) adalah pusat keahlian dan koordinasi Kecerdasan Buatan (AI) Australia yang didirikan Pemerintah. NAIC bagian dari CSIRO, lembaga penelitian ilmiah nasional Australia, dan beroperasi di bawah payung Department of Industry, Science and Resources.
Merespons Kebutuhan Nyata Industri
Keputusan ini lahir dari realitas lapangan. Konsultasi intensif dengan para profesional industri yang sudah lebih maju dalam adopsi AI, serta para ahli teknis dari berbagai organisasi, mengungkapkan kebutuhan mendesak akan arahan yang lebih jelas dan praktis.
Permintaan spesifik juga muncul untuk panduan tambahan mengenai pengadaan sistem AI dan mekanisme transparansi untuk konten yang dihasilkan AI, seperti watermarking. Temuan dari Responsible AI Index 2025 yang dirilis pada Agustus 2025 memperkuat urgensi pembaruan ini.
Survei menemukan bahwa meski 78 persen responden setuju pernyataan tentang performa AI yang etis, hanya 29 persen yang benar-benar mengimplementasikan praktik AI yang bertanggung jawab. Kesenjangan antara “mengatakan” dan “melakukan” ini menjadi perhatian serius.
Lebih mengkhawatirkan lagi, organisasi yang lebih kecil menghadapi tantangan signifikan dalam menerapkan praktik tata kelola yang membutuhkan banyak sumber daya.
Tingkat kepercayaan terhadap AI yang bertanggung jawab menurun tajam pada organisasi dengan 20-99 karyawan. Data ini menggarisbawahi perlunya panduan yang tidak hanya komprehensif, tetapi juga dapat diakses dan diterapkan oleh bisnis dengan berbagai skala dan kapasitas.
Dua Jalur: Foundation dan Implementation
Memahami bahwa organisasi berada pada tahap yang berbeda dalam perjalanan adopsi AI mereka, panduan baru ini dirancang dengan pendekatan bertingkat. Ada dua jalur utama yang dapat dipilih sesuai dengan kematangan organisasi dalam menggunakan teknologi AI.
Jalur pertama adalah Foundation, yang ditujukan untuk organisasi yang baru memulai perjalanan AI mereka. Bagian ini menyediakan langkah-langkah praktis untuk membantu organisasi menyelaraskan AI dengan tujuan bisnis, memahami peran tata kelola, dan mengelola risiko.
Pendekatannya dirancang sangat praktis, memungkinkan pengambil keputusan non-teknis untuk memahami dan menerapkan prinsip-prinsip dasar tanpa tersesat dalam jargon teknis yang rumit.
Jalur kedua adalah Implementation Practices, yang ditujukan untuk organisasi yang sudah lebih maju dan ingin meningkatkan skala adopsi AI mereka.
Bagian ini memandu organisasi melalui panduan teknis yang lebih detail untuk meningkatkan tata kelola, memperbaiki pengawasan, dan menanamkan praktik AI yang bertanggung jawab di seluruh sistem, proses, dan pengambilan keputusan mereka.
Enam Praktik Kunci
Meski disederhanakan, enam praktik kunci dalam panduan baru ini tetap mempertahankan keselarasan penuh dengan Prinsip Etika AI Australia serta standar dan praktik terbaik internasional. Ini memastikan bisnis Australia memenuhi standar domestik, dan dapat beroperasi di pasar global.
Filosofi di balik panduan ini adalah memberikan arahan yang jelas dan dapat ditindaklanjuti, baik untuk tim teknis maupun pengambil keputusan non-teknis. Dengan mengadopsinya, organisasi dapat memanfaatkan peluang AI sambil membangun kepercayaan pelanggan terhadap teknologi ini.
1. Decide Who is Accountable
Praktik ini mengharuskan organisasi untuk secara jelas menetapkan peran dan tanggung jawab untuk setiap sistem AI yang digunakan atau dikembangkan. Tujuannya adalah memastikan adanya individu atau tim yang secara formal ditunjuk sebagai pemilik dan pihak yang bertanggung jawab atas kinerja, hasil, dan dampak sistem AI tersebut di seluruh siklus hidupnya. Hal ini penting untuk menegakkan akuntabilitas.
2. Understand Impacts and Plan Accordingly
Organisasi harus melakukan penilaian dampak yang proaktif dan menyeluruh sebelum mengembangkan atau mengadopsi sistem AI. Ini mencakup:
- Mengidentifikasi potensi manfaat dan risiko bagi individu, masyarakat, dan lingkungan.
- Menggunakan pendekatan berbasis risiko untuk mengklasifikasikan sistem AI (misalnya, risiko tinggi, sedang, rendah) dan menyesuaikan tingkat tata kelola (governance) yang diperlukan.
- Membuat rencana mitigasi yang jelas untuk dampak negatif yang teridentifikasi.
3. Measure and Manage Risks
Praktik ini berfokus pada penerapan kerangka kerja manajemen risiko yang terstruktur. Organisasi perlu:
- Menciptakan metrik dan indikator untuk memantau risiko AI yang teridentifikasi (misalnya, bias, akurasi, keamanan).
- Mengelola risiko melalui kontrol internal yang konsisten dengan standar risiko AI global (seperti NIST AI Risk Management Framework).
- Melakukan tinjauan risiko secara berkala dan berkelanjutan selama masa pakai sistem AI.
4. Share Essential Information
Transparansi adalah kunci untuk membangun kepercayaan. Organisasi harus terbuka tentang:
- Tujuan dan kemampuan sistem AI.
- Keterbatasan dan potensi risiko yang diketahui dari sistem tersebut.
- Memastikan informasi ini mudah diakses dan dipahami oleh pihak yang terkena dampak (pengguna, regulator, atau publik). Hal ini sering diwujudkan melalui pernyataan transparansi atau dokumentasi yang jelas.
5. Test and Monitor
Praktik ini menjamin keandalan dan keamanan sistem AI. Organisasi harus:
- Melakukan pengujian ekstensif sebelum dan sesudah penerapan untuk memverifikasi kinerja, akurasi, dan keadilan sistem.
- Menerapkan mekanisme pemantauan berkelanjutan (continuous monitoring) untuk mendeteksi penyimpangan kinerja, anomali, atau penurunan kualitas model (model drift) dari waktu ke waktu di lingkungan operasional.
6. Maintain Human Control
Ini menekankan pentingnya peran manusia dalam sistem AI, terutama untuk keputusan penting. Organisasi harus:
- Menentukan titik di mana intervensi atau pengawasan manusia diperlukan.
- Memastikan ada mekanisme override atau pengabaian oleh manusia untuk menghentikan atau membatalkan keputusan AI jika diperlukan (terutama dalam kasus risiko tinggi).
- Melatih staf untuk memahami kapan dan bagaimana cara campur tangan atau menantang keluaran dari sistem AI.
Membangun Kepercayaan Publik sebagai Prioritas
Salah satu tantangan terbesar adopsi AI adalah rendahnya tingkat kepercayaan publik. Kepercayaan publik yang rendah terhadap AI dan penggunaannya oleh pemerintah bertindak sebagai rem dalam adopsi yang lebih luas.
Konsultasi pemerintah Australia tentang AI yang aman dan bertanggung jawab menunjukkan masyarakat mengharapkan pemerintah menjadi teladan. Panduan ini merupakan bagian dari respons pemerintah yang lebih komprehensif terhadap tantangan ini.
Pemerintah Australia telah merilis berbagai kebijakan dan kerangka kerja terkait, termasuk Policy for the Responsible Use of AI in Government pada Agustus 2024 dan Australian Government AI Technical Standard pada Juli 2025.
Semua inisiatif ini dirancang untuk memposisikan Australia sebagai pemimpin global dalam adopsi AI yang aman dan bertanggung jawab, tanpa menghambat inovasi.
Mendorong Budaya AI yang Bertanggung Jawab
Yang menarik dari pendekatan Australia adalah penekanan pada transparansi dan akuntabilitas. Kebijakan pemerintah mengharuskan lembaga pemerintah untuk mempublikasikan pernyataan transparansi AI yang menjelaskan pendekatan mereka terhadap adopsi dan penggunaan AI.
Pernyataan ini harus menggunakan bahasa yang jelas dan sederhana, menghindari jargon teknis, dan mencakup informasi tentang niat penggunaan AI, kategori yang mungkin ada interaksi publik langsung tanpa perantara manusia, serta upaya untuk melindungi publik dari dampak negatif.
Panduan adopsi AI yang baru ini juga akan menjadi dasar bagi ekspansi alat dan sumber daya NAIC. Pemerintah Australia meluncurkan AI Adoption Tracker, platform data interaktif yang diperbarui per bulan, memberi wawasan di seluruh negara mengimplementasikan teknologi ini.
Pelacakan ini memetakan pola adopsi berdasarkan industri, ukuran, dan lokasi geografis, memungkinkan pembuat kebijakan, investor, dan publik untuk lebih memahami lanskap AI yang terus berkembang.
Langkah Maju yang Pragmatis
Pembaruan panduan adopsi AI Australia menunjukkan pendekatan matang dan pragmatis terhadap teknologi ini. Dengan menyederhanakan kerangka kerja dari 10 menjadi 6 praktik kunci, pemerintah tidak mengurangi standar, melainkan membuatnya lebih mudah diakses dan diterapkan.
Penekanan pada kepercayaan publik, transparansi, dan tata kelola yang bertanggung jawab menunjukkan Australia tidak hanya mengejar adopsi demi teknologi itu sendiri, tetapi memanfaatkan AI untuk meningkatkan kesejahteraan sosial dan ekonomi sambil melindungi publik.
Dalam dunia yang berubah dengan cepat, AI membantu bisnis Australia agar lebih lincah, efisien, dan kompetitif. Adopsi bukan hanya penanda kematangan teknologi, tetapi bukti komitmen membangun ekonomi yang siap menghadapi masa depan dan didorong oleh inovasi.
Dengan panduan yang lebih jelas dan dapat ditindaklanjuti ini, Australia bergerak selangkah lebih dekat untuk mewujudkan visi tersebut. Bagaimana di Indonesia?
*Gambar: Sampul dokumen Guidance for AI Adoption

