Algoritme Facebook berkontribusi terhadap penyebaran konten ekstremis.
Chip Somodevilla/Getty Images

  • Laut “Jurnal Wall StreetFacebook melakukan penyelidikan internal pada tahun 2016 dan 2018 untuk menyelidiki apakah algoritma tersebut mendorong penyebaran konten ekstremis.
  • Meskipun para ahli telah mencatat bahwa platform tersebut mempromosikan konten yang mempolarisasi, para eksekutif Facebook telah menolak saran untuk melakukan perubahan.
  • Menurut The Journal, Mark Zuckerberg mengatakan dia “kehilangan minat” terhadap usulan perubahan tersebut dan meminta karyawannya untuk tidak mendesaknya lebih jauh mengenai masalah tersebut.

Facebook telah lama mengetahui bahwa platformnya mempromosikan konten ekstremis dan polarisasi. Kurangnya minat perusahaan dalam menyelesaikan masalah ini juga dialami oleh bosnya, Mark Zuckerberg, lapor The Wall Street Journal.

Menurut surat kabar harian Facebook melakukan penyelidikan internal pada tahun 2016 dan 2018. Hal ini menunjukkan bahwa algoritma Facebook berkontribusi terhadap penyebaran konten ekstremis. Ketika Zuckerberg diberikan solusi untuk mengekang konten ini, dia meminta karyawannya untuk tidak menyarankan perubahan lebih lanjut pada algoritma yang “demi kepentingan publik,” kata surat kabar itu.

Laporan tentang kurangnya tindakan Facebook muncul ketika perusahaan tersebut sudah menjadi sorotan. Karena hal tersebut tidak bisa menghentikan penyebaran berita palsu yang berbahaya tentang pandemi virus corona. Facebook dan Zuckerberg telah lama menegaskan bahwa platform tersebut tidak bertanggung jawab atas polarisasi opini dan konten pengguna. Namun, menurut Wall Street Journal, para ahli sudah memberi tahu manajer perusahaan tentang dampaknya pada tahun 2016.

Secara internal, Facebook membentuk kelompok kerja yang disebut “Common Ground” pada tahun 2017. Tim integritas, yang terdiri dari insinyur, peneliti, dan staf lainnya, menyelidiki bagaimana konten kontroversial tersebut didistribusikan. Para ahli mencatat pada tahun 2018 bahwa algoritme Facebook – yang memprioritaskan perilaku pengguna dan waktu yang dihabiskan di platform – mendorong polarisasi konten dengan memanfaatkan “ketertarikan otak manusia terhadap konten yang terpolarisasi”.

Baca juga

Bos Facebook Mark Zuckerberg mengatakan bahwa dalam sepuluh tahun, setiap detik karyawan dapat bekerja dari rumah dan memperkirakan perubahan besar

Terlepas dari temuan ini, pengawas menolak atau mempermudah perubahan yang diusulkan. Mereka tidak ingin memberikan kesan bahwa Facebook ingin membentuk opini pengguna atau mengambil pendirian moral. Para eksekutif Facebook bahkan lebih tegas dalam mencegah saran-saran yang dapat memberikan kesan bahwa platform tersebut memiliki orientasi politik.

Pada tahun 2018, para eksekutif Facebook mengumumkan kepada karyawannya bahwa perusahaan tersebut mengubah prioritasnya “menjauh dari kebaikan bersama” dan menuju “nilai-nilai individu”. Sejak itu, Facebook dan Zuckerberg telah mengambil “pendekatan lepas tangan” terhadap konten semacam itu. Mereka hanya mengambil tindakan ketika pengguna “secara khusus melanggar peraturan perusahaan”.

Dalam pernyataannya kepada The Wall Street Journal yang juga diperoleh Business Insider, juru bicara Facebook mengatakan: “Kami telah belajar banyak sejak 2016 dan kami tidak lagi menjadi perusahaan yang sama saat ini. Kami telah membangun tim integritas yang kuat dan meningkatkan kebijakan serta prosedur kami untuk membatasi konten berbahaya. Kami juga melakukan penelitian untuk memahami dampak platform kami terhadap masyarakat sehingga kami dapat terus melakukan peningkatan.”

Artikel ini diterjemahkan dari bahasa Inggris dan diedit oleh Ilona Tomić. Anda sedang membaca aslinya Di Sini.

Result SGP