Arvato di Berlin memiliki ratusan karyawan yang mengedit Facebook. Mereka harus dimusnahkan setiap hari dengan banyak kekerasan, kebencian, dan kesulitan.
Tidak ada pertanyaan. Itu Kisah Facebook dari majalah Süddeutsche Zeitung adalah berita nyata. Dua editor bertemu dengan banyak mantan dan karyawan saat ini Arvato berbicara dengan yang bekerja untuk Facebook. Mereka meninjau konten dan memutuskan apakah konten tersebut harus ada di platform atau tidak. Mereka sebenarnya dilarang oleh majikan dan atasannya untuk berbicara dengan wartawan. Semuanya tunduk pada kerahasiaan yang ketat dan perjanjian kerahasiaan telah ditandatangani. Mereka tetap melakukannya. Untuk pertama kalinya, kami mendapat gambaran tentang apa yang dilakukan 600 karyawan di Berlin saja untuk menghapus konten Facebook yang tidak diinginkan atau ilegal. Dihapus atau tidak, itulah pertanyaan yang harus dijawab oleh karyawan Arvato hingga 2.000 kali dalam sehari.
“Ya Tuhan. Kamu sudah besar. Ini tidak menyenangkan.”
Ada peraturan ketat dari kantor pusat Facebook untuk menjawab pertanyaan ini. Namun bahkan dengan bantuan alat ini, tidak mudah untuk memutuskan apakah suatu kontribusi dapat bertahan atau tidak. Berikut beberapa contoh yang dilansir majalah SZ:
- Hal-hal berikut ini harus dihapus antara lain:
Gambar seorang wanita muntah di depan umum – disertai komentar: “Ya Tuhan. Kamu besar sekali. Menjijikkan.” Alasan: Komentar tersebut dianggap sebagai intimidasi karena mengungkapkan rasa jijik terhadap fungsi tubuh.
Foto seorang gadis tanpa komentar di samping foto simpanse dengan ekspresi wajah serupa.
Alasan: Pengeditan gambar yang merendahkan: perbandingan yang jelas antara manusia dan hewan.
Video yang memperlihatkan seseorang disiksa, tetapi hanya jika ada komentar di bawahnya seperti: “Saya ingin melihat betapa sakitnya dia.” - Yang berikut ini tidak boleh dihapus:
Video aborsi. Kecuali jika mengandung unsur ketelanjangan.
Gambar seorang pria yang digantung dengan komentar: “Gantung wanita jalang ini.” Hal ini dianggap sebagai dukungan yang diperbolehkan terhadap hukuman mati; Ini hanya akan dilarang jika secara khusus ditujukan kepada “kelompok orang yang dilindungi,” yaitu jika dikatakan sesuatu seperti, “Gantung pria gay ini.”
Foto seorang wanita yang sangat anoreksia tanpa komentar. Menampilkan perilaku menyakiti diri sendiri tanpa konteks diperbolehkan.
Contoh-contoh ini menunjukkan betapa sulitnya menilai suatu kasus berdasarkan peraturan yang kaku. Pertanyaan moral-filosofis, pertanyaan etis, atau pertanyaan jurnalistik sulit dimasukkan ke dalam seperangkat aturan. Apakah adegan penyiksaan tersebut merupakan dokumen kontemporer yang penting atau sekadar penggambaran kekerasan? Ini adalah pertanyaan-pertanyaan yang tidak selalu memberikan jawaban yang jelas, bahkan di kalangan jurnalis.
Karyawan Arvato tetap diharapkan untuk menaati peraturan secara ketat. Menurut cerita di majalah SZ, memikirkan diri sendiri tidaklah baik. Namun dalam banyak kasus, hal ini tentu saja merupakan masalah penafsiran dan tidak dapat ditangani sesuai dengan skema F. Facebook sendiri berusaha keras untuk merahasiakan undang-undang penerbitannya sendiri, yang “terdiri dari ratusan aturan kecil”. Ketakutannya adalah pengguna akan menemukan cara untuk secara cerdik menghindari aturan.
Gangguan stres seperti yang dialami seorang tentara
Sebagian besar cerita SZ menggambarkan tekanan psikologis yang dialami oleh karyawan kelompok pemadam kebakaran di anak perusahaan Bertelsmann, Arvato. Sebab penyiksaan, kekerasan, kebencian, pornografi kejam hingga seks anak atau seks dengan binatang -hampir semua kedalaman yang bisa dijangkau manusia- rupanya diunggah ke Facebook setiap hari. Berurusan dengan kekacauan yang menjijikkan ini sepanjang hari mendorong karyawan hingga melampaui batas kemampuan mereka. Tampaknya tidak ada bantuan dari majikan. Bukan dari Arvato atau dari Facebook. Mereka bilang kamu sendirian. Dampaknya dapat berkisar dari gangguan stres pasca trauma – seperti seorang tentara yang pulang dari zona perang.
Terima kasih kepada rekan-rekan kami di SZ, untuk pertama kalinya kami dapat melihat ke balik layar Facebook yang dijaga ketat dan sekarang dapat membayangkan dengan lebih baik bagaimana platform tersebut menangani konten yang dilaporkan. Itu memang pantas. Kondisi kerja di departemen pemadam kebakaran di Arvato dalam banyak kasus tentu saja menyedihkan, dan gajinya tidak terlalu bagus. Penulis cerita, Hannes Grassegger dan Till Krause, melihat ini sebagai aspek yang memalukan di wajah mereka. Mereka melihat skandal lain dalam cara Facebook menangani postingan yang tidak diinginkan dan menuntut lebih banyak transparansi.
Anda tidak bisa menghapus orang begitu saja
Ini semua bisa dimengerti dan terhormat. Facebook kini menciptakan semacam publik virtual dan harus bertanggung jawab atasnya. Namun sebagai pembaca, Anda bertanya pada diri sendiri pertanyaan lain: Bagaimana platform seperti Facebook membutuhkan lebih dari 100.000 orang di seluruh dunia yang tidak melakukan apa pun selain menghapus entri yang berisi gambaran penyiksaan yang menjijikkan, segala macam hal yang berkaitan dengan kekerasan dan kekerasan. hal-hal tak tertahankan lainnya? Dari mana konten ini berasal? Dalam misa ini? Bukan Facebook yang membuat konten ini. Inilah para penggunanya. Mungkin seseorang yang duduk di samping kita di kereta bawah tanah setiap pagi. Mungkin tetangga atau kolega. Facebook berharap suatu algoritma akan mengambil alih pekerjaan penghapusan di masa depan. Bahkan algoritma pun tidak akan mampu menghapus orang-orang yang memproduksi kotoran ini atau mengkonsumsinya di tempat lain di internet.