Definisi
Moderasi konten (content moderation) adalah proses peninjauan, penyaringan, dan pengelolaan konten yang diunggah pengguna pada platform digital untuk memastikan kepatuhan terhadap hukum yang berlaku, pedoman komunitas, dan standar etika. Moderasi konten mencakup penghapusan, pembatasan visibilitas, atau pelabelan konten yang melanggar ketentuan.
Di Indonesia, kewajiban moderasi konten diatur dalam Permenkominfo No. 5 Tahun 2020 tentang Penyelenggara Sistem Elektronik (PSE) Lingkup Privat. PSE wajib melakukan moderasi terhadap konten yang dilarang peraturan perundang-undangan dan merespons permintaan pemutusan akses dari Kominfo dalam waktu 4x24 jam untuk konten umum dan 24 jam untuk konten darurat (terorisme, ancaman keamanan). Kegagalan mematuhi kewajiban ini dapat berujung pada sanksi administratif termasuk pemblokiran.
Metode moderasi konten meliputi moderasi manusia (human moderator), moderasi otomatis menggunakan artificial intelligence, kombinasi keduanya (hybrid), serta moderasi berbasis laporan pengguna (user-flagging).
Contoh Kasus
Kominfo memerintahkan sebuah platform media sosial untuk menurunkan konten yang mengandung ujaran kebencian terhadap kelompok agama tertentu. Platform merespons dalam waktu 24 jam dan menghapus konten tersebut. Kominfo memantau kepatuhan platform melalui laporan berkala.
Sebuah platform berbagi video dikritik karena algoritma moderasi kontennya secara tidak proporsional menghapus konten berbahasa Indonesia yang membahas isu sensitif namun sah secara hukum. Platform melakukan kalibrasi ulang sistem moderasi dan membuka mekanisme banding bagi kreator konten yang merasa kontennya dihapus secara keliru.