Definisi
Regulasi AI (Artificial Intelligence) merujuk pada kerangka hukum, kebijakan, dan pedoman etika yang mengatur pengembangan, penerapan, dan pemanfaatan teknologi kecerdasan buatan. Di Indonesia, regulasi AI masih dalam tahap pengembangan dan saat ini diatur secara umum melalui UU ITE, UU PDP, dan pedoman etika yang dikeluarkan pemerintah.
Kementerian Komunikasi dan Informatika menerbitkan Surat Edaran tentang Etika Kecerdasan Artifisial yang memuat prinsip-prinsip: inklusivitas, kemanusiaan, keamanan dan keselamatan, transparansi, akuntabilitas, keberlanjutan lingkungan, serta privasi dan perlindungan data. Pedoman ini menjadi acuan bagi pengembang dan pengguna AI di Indonesia.
Isu-isu hukum utama terkait AI meliputi tanggung jawab hukum atas keputusan AI (liability), perlindungan data pribadi dalam AI yang menggunakan big data, bias dan diskriminasi algoritmik, deepfake dan misinformasi, hak kekayaan intelektual atas karya yang dihasilkan AI, serta dampak AI terhadap ketenagakerjaan. Indonesia berpartisipasi dalam pembahasan regulasi AI internasional termasuk dalam forum G20 dan ASEAN.
Contoh Kasus
Sebuah perusahaan fintech di Indonesia menggunakan AI untuk credit scoring (penilaian kredit) nasabah. Sistem AI menolak pengajuan kredit dari kelompok demografi tertentu secara tidak proporsional, menimbulkan dugaan diskriminasi algoritmik. OJK meminta perusahaan untuk melakukan audit terhadap algoritma AI-nya dan memastikan kepatuhan terhadap prinsip non-diskriminasi.
Platform media sosial menggunakan AI untuk moderasi konten berbahasa Indonesia. Sistem AI salah mengidentifikasi konten budaya tradisional sebagai konten kekerasan dan menghapusnya secara otomatis. Insiden ini menunjukkan tantangan akuntabilitas AI dan pentingnya transparansi dalam pengambilan keputusan otomatis yang berdampak pada kebebasan berekspresi.