Gündem

Facebook'un içerik silme kural ve kriterleri ilk kez ortaya çıktı

İngiliz Guardian gazetesi, Facebook'un sayfalarından kaldırılacak ya da tutulacak içeriklere karar veren moderatörlerinin tabi olduğu kurallarla ilgili belgeleri ele geçirdi.

29 Nisan 2018 20:30

İngiliz Guardian gazetesinin incelediği 100'den fazla şirket içi eğitim elkitabı, çizelge ve grafik, Facebook'un şiddet, nefret suçu, terörizm olayları, pornografi, ırkçılık ve kendine zarar verme gibi meselelere yaklaşımını ortaya koyuyor.

Guardian'ın verdiği isimle 'Facebook Belgeleri', Avrupa ve ABD tarafından ağır siyasi baskı altında olan sitenin belirlediği kural ve ilkeleri gözler önüne seriyor.

Belgeler, Facebook'un kendine zarar verme konusunda yardım çağrıları ile tekrar edilen davranışlar arasında denge tutturmaya çalıştığını da gösteriyor.

Buna göre Facebook, kullanıcıları kendilerine zarar vermelerini canlı yayımlamalarına izin veriyor.

Cinsellik taşıyan içeriklere yönelik yaklaşımların ise çok karmaşık olduğu belirtiliyor.

Belgelerde şike ve yamyamlıkla ilgili bile ilkeler var.

Belgeler aynı zamanda site yöneticilerinin 'intikam pornosu' gibi yeni olgulara cevap vermede zorluk çektiklerini ve karar vermek için 'sadece 10 saniyeleri olan' moderatörlerin iş yükü altında ezildiklerini de ortaya koyuyor.

Gazeteye konuşan ve ismi belirtilmeyen bir kişi, "Facebook içeriğinin kontrolünü yapamıyor. Çok hızlı, çok fazla büyüdü" diyor.

Bir belgeye göre, Facebook haftada 6,5 milyondan fazla sahte hesaplara yönelik ihbarı gözden geçiriyor.

Facebook eleştirenler site yöneticilerinin incitici, nefret ve şiddet dolu içerikleri engellemek için daha fazla çaba sarf etmesi gerektiğini düşünürken, bunun sitenin fiili olarak dünyanın en büyük sansür mekanizması olduğunu söyleyen ifade özgürlüğü savunucularını endişelendirebileceği de belirtiliyor.

Guardian, çalışanlara son bir yıl içinde verildiğini söylediği belgelerden örnekleri şu şekilde sıralıyor:

Sosyal medya platformunda 100 binden fazla takipçisi olan herkes kamuya mâl olmuş kişi olarak kabul ediliyor ve bireylere verilen korunma hakları onlara verilmiyor.

Facebook'un küresel politikalar sorumlusu Monika Bickert, sitenin neredeyse 2 milyar kullanıcısının olduğunu ve neye izin verileceği konusunda ortak bir karara varmanın zor olduğunu belirtiyor.

"Çok çeşitli bir küresel toplumumuz var ve insanların neleri paylaşmanın doğru olduğu konusunda farklı fikirleri olacak. Çizgiye nereye çekerseniz çekin, gri alanlar olacaktır. Örneğin bazen hiciv ve espiri ve yakışıksız içerik arasındaki çizgi oldukça gri olabiliyor. Bazı şeylerin siteye uygun olup olmadığına karar vermek çok zor.

"Topluluğumuza onları güvende tutmak konusunda kendimizi sorumlu hissediyoruz. Bu kesinlikle bizim sorumluluğumuz. Şirketimizin sözü."

Facebook'un, Vietnam Savaşı'nın simge fotoğrafı haline gelen, napalm bombasından çıplak bir halde kaçan küçük kız Kim Phuc'u gösteren fotoğrafı siteden kaldırmasının eleştirilmesi üzerine, çıplaklık konusunda yeni bir rehber yayımladığı kaydediliyor.

Bu yeni rehbere göre, "haber değeri taşıyan" içeriklere izin verilebileceği kaydediliyor, ancak Holocaust çerçevesinde çocukların çıplak bir şekilde gösterilmesi bunun dışında bırakılıyor.

Facebook, Guardian'a yaptığı açıklamada rahatsız edici görsel içerikleri siteye konmadan engelleyen bir yazılım kullandıklarını açıkladı, ancak "İnsanların küresel ve güncel olayları tartışabilmelerini istiyoruz… bu yüzden şiddet içeren bir fotoğrafın paylaşıldığı çerçeve bazen önemli oluyor" diyor.

ABD ve Avrupa'da bazı yorumcular, şirketin ana akım televizyon kanalları ve yayımcılar gibi düzenlenmesi gerektiğini savunuyor.

Bickert, Facebook için "Yeni bir çeşit şirket. Geleneksel bir teknoloji şirketi değil. Geleneksel bir medya şirketi değil. Teknoloji inşa ediyoruz ve nasıl kullanıldığından sorumluluk duyuyoruz. İnsanların platformda okudukları haberleri biz yazmıyoruz" diyor.