Günlük gelişmeleri takip edebilmek için habertürk uygulamasını indirin
HABERTURK.COM

Facebook, sosyal ağda paylaşılan içerikleri kontrol etmesi için 7.500 kişiden oluşan bir içerik moderatör ekibine sahip. Bunun yanı sıra sosyal ağda pornografik, şiddet veya nefret içerikli paylaşımların saptanması için geliştirilmiş algoritmalar bulunuyor.

Kâr amacı gütmeyen bir kurum olan ProPublica, 900 kişinin katılımıyla topladığı nefret içerikli Facebook paylaşımlarını sosyal ağa gönderdi. Toplam 49 örnekten oluşan paylaşımları inceleyen Facebook, 22 paylaşımda kontrol ekiplerinin yanlış karar verdiklerini kabul etti.

Facebook yönetimi, paylaşılan 6 örnek için kullanıcıların içeriği doğru şekilde rapor etmemelerini sebep gösterdi. Facebook, geriye kalan 19 içeriğin sosyal ağdan kaldırılmamasının doğru karar olduğunu düşünüyor. ProPublica, söz konusu 19 paylaşımın cinsiyetçi, ırkçı ve İslam karşıtı içeriklere sahip olduğunu belirtiyor.

Her hafta nefret söylemleri içeren 66.000 civarı içeriğin sosyal ağdan kaldırdığını belirten Facebook başkan yardımcılarından Justin Osofsky, “Yaptığımız hatalar için üzgünüz, daha iyisini yapmalıyız.” dedi.

Facebook, önümüzdeki yıl güvenlik ve içerik ekibini 20.000 kişiye kadar genişletmeyi planlıyor.