Kisah Moderator Konten Sensitif Facebook: “Saya Memantau Hal Paling Buruk yang Diunggah Secara Online”

ENSIPEDIA.ID, Kendari – Seorang moderator konten Facebook adalah seorang yang bekerja dalam memantau konten Facebook yang tidak sesuai dengan standar komunitas yang telah ditetapkan. Tugas utama dari moderator konten Facebook ialah mementau, memeriksa, hingga menghapus konten-konten yang dilarang oleh platform yang digawangi oleh Mark Zuckerberg tersebut.

Salah satu mantan moderator Facebook—sebut saja Mr. X–bercerita kepada Vice tentang pengalamannya berhadapan  dengan konten-konten mengerikan. Selama bekerja di Facebook, ia harus membuat keuputusan-keputusan yang rumit dalam hitungan detik. Ia menjelaskan betapa brutalnya konten-konten yang harus ia lihat dan pantau setiap hari.

“Melihat mayat dan pembunuhan, atau ada seseorang sedang berpesta setelah membunuh orang. Anjing dipanggang hidup-hidup, dan (bayangkan) kamu sedang menonton gambar-gambar itu,” ungkap Mr. X.

Moderator Facebook berperan demi kepentingan pengguna Facebook. Mereka menjadi tameng dan filter konten agar pengguna lainnya bisa nyaman dan tentram dalam berselancar di jagat maya. Mereka harus duduk 8 jam dalam sehari dalam memantau konten-konten sensitif.

“Saya bekerja selama 8 jam per hari memantau semua hal yang paling buruk yang diunggah secara online, jadi kalian tidak perlu melihatnya,” kata Mr. X kepada reporter Vice.

Dalam proses perekrutan tenaga moderator konten, mereka tidak bekerja sebagai pegawai dalam lingkup perusahaan Facebook (kini Meta), melainkan mereka direkrut oleh pihak ketiga sebagai tenaga kerja oleh pihak penyalur yaitu perusahaan penyedia jasa layanan internet. Walaupun saat ini perusahaan raksasa media sosial tersebut telah menggunakan AI atau kecerdasan buatan. Akan tetapi, Facebook tetap memerlukan manusia sebagai pengeksekusi dan pengambil keputusan. Facebook memiliki panduan khusus tentang konten-konten tersebut. Mana yang layak untuk di takedown ataupun dibiarkan.

“Panduan itu sangat ketat dan aturannya ditulis secara presisi. Kami dapat definisi tentang menyakiti versus cedera versus kekerasan. Kami dapat definisi yang jelas tentang apa itu ujaran kebencian dan mana yang bukan.”

Membayangkan pekerjaan yang santai dan mudah bukanlah pikiran yang tepat untuk moderator konten. Mr. X menceritakan momen di hari pertamanya bekerja, ia harus melihat konten masturbasi seorang pria. Sekitar 50% konten yang dilihat setiap harinya merupakan konten yang membuat ia trauma.

“Saya masih ingat ketika pertama kali momen di mana saya terkejut, dan hari itu adalah hari pertama saya. Pernah suatu hari, ada gambar close-up seorang laki-laki sedang masturbasi. Tapi saya tidak mampu meraih tombol hapus. Dan akhirnya ada rekan perempuan yang menghapusnya. Dia segera mengambil tisu dari meja sebelah dan membersihkan tangan dan keyboard-nya. Setelah saya pikir-pikir, saya menyadari bahwa kita merasakan seperti disentuh apa yang kita lihat.”

Efek kesehatan mental yang dialami oleh moderator konten Facebook tidaklah main-main.  Mr. X menceritakan bahwa ketika beberapa minggu bekerja, sudah ada rekan koleganya yang mulai bertindak aneh bahkan hingga percobaan untuk menyakiti diri sendiri.

“ … Dan setelah beberapa minggu kemudian, salah satu kolega saya mulai menyakiti dirinya sendiri di mana ada seseorang yang menyilet tangannya. Bahaya bunuh diri itu semakin dekat.” Mereka bahkan tidak jarang mendapatkan postingan orang yang melakukan bunuh diri.

Yang menjadi hal miris ialah, mereka bahkan tidak mendapatkan layanan kesehatan mental dari terapis ataupun psikolog. Walaupun terdapat layanan konseling dan pusat kesehatan, namun bukan terdiri dari orang-orang yang profesional. Dengan beban mental pekerjaan yang begitu berat, mereka hanya ditenangkan dengan aktivitas melukis tangan di kantin.

“Mereka bukan terapis ataupun psikolog. Saat ditempat kerja dan kamu dapat email tentang ‘Halo, kita ada kegiatan melukis tangan di kantin nanti malam,’” ungkap Mr. X. “Saya sedang melihat kejahatan perang dan kekerasan anak, saya tidak punya waktu untuk melukis tangan,” lanjutnya dengan nada yang sedikit tinggi. Bantuan kesehatan mental yang mereka dapatkan tidak membantu sama sekali.

Beberapa moderator akhirnya mengalami PTSD atau gangguan stres pascatrauma. Hal tersebut membuat para moderator konten melakukan gugatan ke Facebook. Pada tahun 2020, Facebook digugat di Amerika Serikat. Walaupun Facebook menolak gugatan hukum tersebut, tetapi mereka tetap memberikan kompensasi kepada korban dan berjanji menggunakan teknologi dalam menyaring konten ekstrim dan sensitif.

Latest articles