50 Küresel Ortak...
Meta, intikam pornosunun Facebook ve Instagram‘da yayılmasını durdurmak için bir araç başlattı – ancak mağdur olmaktan korkan kullanıcılar, uygulamanın çalışma sistemine göre kendilerini savunmak için görüntüleri ve videoları karma bir veritabanına yüklemek zorunda.
Araç, ‘Rıza Dışı Mahrem Görüntüleri Durdur‘ anlamına gelen adlı küresel bir web sitesidir.
Facebook veya Instagram‘da yayımlanan veya yayımlanabilecek mahrem fotoğrafları veya videoları hakkında hakkında endişe duyan kişiler, bu web sitesi aracılığıyla bir servis talebi oluşturabilir
Bunu, ancak görüntüleri veya videoları web sitesine yükleyerek yapabilmek mümkün. Meta, içeriğin dijital bir parmak izine dönüştürüldüğünü ve bu sayede müstehcen içeriği tanımlamalarına veya tespit etmelerine izin verdiğini ve hiçbir insan gözünün onları görmediğini iddia ediyor.
Yüklenen her fotoğraf veya video, kişinin izni olmadan paylaşılan veya gönderilmeye çalışılan kopyayı tespit etmek ve izlemek için kullanılan bir dijital parmak izi veya benzersiz karma değeri alır.
Web sitesi 50 küresel ortakla oluşturuldu ve üçüncü taraf bir web sitesiyle kendisinin mahrem görüntülerini ve videolarını paylaşmak çoğu kullanıcıya çekici gelmeyebilir, ancak Meta, “orijinal görüntülere erişemeyeceklerini" söylüyor.
StopNCII.org, Facebook ve Instagram‘da benzer görüntüleri tespit etmek için kullanılabilecek hash’ler oluşturmak için halktan kendi fotoğraflarını isteyen, 2017’de Avustralya’da başlatılan bir pilot programa dayanıyor.
Meta‘nın başlangıçta Facebook‘u, insanların mahrem görüntülerini veya videolarını yüklemelerine izin verecek şekilde kurması gerekiyordu, ancak hassas medya, benzersiz dijital parmak izlerine dönüştürülmeden önce insan moderatörler tarafından bu süreçte gözden geçirilecekti.
Bunu bilen sosyal medya şirketi, imaja dayalı taciz, çevrimiçi güvenlik ve kadın hakları konusunda uzmanlaşmış üçüncü bir taraf olan StopNCII ile bağlantı kurmayı seçti. Davis, bir blog paylaşımında “StopNCII.org ve katılımcı teknoloji platformları ile görüntülerin kendisi değil, yalnızca karmalar paylaşılıyor” diye yazdı.
“Bu özellik, söz konusu NCII içeriğinin daha fazla dağıtılmasını engeller ve bu görüntüleri güvenli bir şekilde sahibinin elinde tutar."
StopNCII.org, özel bir görüntüsünün rızaları olmadan paylaşılabileceğine veya zaten paylaşılmış olduğuna inanan 18 yaş üstü yetişkinlere yöneliktir.
Meta tarafından 2019’da yayınlanan bir raporda, her ay yaklaşık 500.000 intikam pornosu vakası tespit ediliyor.
İntikam pornosu akışıyla başa çıkmak için Facebook, çıplakları belirlemek ve fotoğrafları kaldırmak için geliştirilen bir algoritmayla birlikte 25 kişilik bir ekip kullanıyor.
StopNCII.org ile, potansiyel kurbanlar açık içeriği Meta ile paylaştıktan sonra, insan moderatörlerinin yerini görüntüleri algılayabilen ve tanımlayabilen hash’ler alıyor.