Kebijakan publik semakin sering berbicara tentang machine learning, big data, dan kecerdasan buatan (AI) sebagai tulang punggung transformasi pelayanan negara.
Pemerintah menyongsong era digital dengan memanfaatkan algoritma untuk mempercepat layanan, meningkatkan efektivitas program sosial, dan memperbaiki tata kelola administrasi.
Namun, ketika keputusan publik mulai diambil dengan bantuan algoritma, muncul pertanyaan penting yang kerap terlewatkan: Siapa yang bertanggung jawab ketika sistem gagal?
Dalam sebuah kebijakan publik, akuntabilitas adalah fondasi esensial. Tanpa itu, warga negara kehilangan jalur aduannya ketika haknya dilanggar atau saat keputusan algoritmik memicu ketidakadilan.
Realitas 2025 menunjukkan peningkatan penggunaan algoritma dalam layanan publik di Indonesia, mulai dari penentuan prioritas bantuan sosial hingga penyaringan calon penerima layanan kesehatan berbasis risiko.
Algoritma telah masuk ke ruang kebijakan secara luas, tetapi regulasi yang mengaturnya belum seimbang dengan frekuensi penggunaan.
Penetrasi internet Indonesia terus meningkat menurut APJII 2025, penetrasi menjulang di atas 80 persen, tetapi pemanfaatan data besar dan sistem otomatis belum diikuti oleh kehati-hatian terhadap keadilan, transparansi, dan akuntabilitas keputusan algoritmik.
Tulisan ini menegaskan bahwa ketika kebijakan publik mulai bergantung pada algoritma, negara tidak boleh melepaskan tanggung jawab atas keputusan yang dihasilkan sistem otomatis apa pun namanya.
Algoritma dan Kebijakan Publik: Efisiensi tanpa Akuntabilitas?
Dalam lapangan praktik, algoritma dipandang sebagai solusi efisiensi birokrasi dan perbaikan kebijakan berbasis data. Sistem rekomendasi digunakan untuk menyeleksi penerima bantuan sosial, analitik prediktif untuk alokasi sumber daya kesehatan, serta scoring otomatis untuk layanan perizinan dan pembayaran pajak.
Banyak institusi pemerintah menaruh optimisme bahwa keputusan otomatis akan mengurangi bias manusia, mengurangi korupsi, dan mempercepat layanan.
Namun, optimisme ini sering kali hanya dilandasi asumsi efisiensi, bukan refleksi atas konsekuensi sosial dan nilai publik. Algoritma mengambil keputusan berdasarkan data historis.
Jika data historis itu sendiri mengandung bias—misalnya ketidakterjangkauan layanan di daerah tertentu, kurangnya representasi kelompok marginal, atau kesalahan input administratif—algoritma akan mereplikasi bias tersebut dalam bentuk keputusan yang tampak objektif, tetapi sebenarnya diskriminatif secara sistemik.
Pengalaman negara-negara lain menunjukkan betapa algoritma bisa menciptakan ketidakadilan yang terstruktur. Di beberapa negara, sistem penilaian risiko kredit otomatis menolak permohonan dari warga di wilayah tertentu yang kurang terlayani bank, bukan semata karena risiko kredit, melainkan karena kurangnya rekam jejak historis dalam data.
Di Indonesia, penggunaan algoritma serupa tanpa audit independen berpotensi memperkuat ketimpangan yang justru menjadi masalah kebijakan sosial utama.

1 day ago
11






































