Bu alanda hizmet veren birçok teknoloji çözümü, içerikleri daha öncesinde istismar içerdiği belirlenen görsel ve videolar ile karşılaştırıyor.Örneğin Microsoft tarafından üretilen ve Facebook ve Twitter gibi şirketler tarafından kullanılan PhotoDNA'nın çalışma prensibi bu şekilde.
"Crawler" olarak bilinen bu yazılım, daha önce paylaşılmış olan bu tarz içeriklerin tekrar paylaşılmamasını sağlıyor. Ancak bu yöntem ile henüz yasadışı olarak işaretlenmemiş içerikler belirlenemiyor. Bu nedenle insan moderatörlerin işe el atarak içerikleri değerlendirmesi gerekiyor.
Aslında Google'ın yeni yapay zeka aracı da tam bu noktada devreye giriyor. Şirket yapay görme alanındaki uzmanlığından faydalanarak moderatörler için istismar içerebilecek görsel ve videoları işaretleyerek önceliklendiriyor. Değerlendirme sürecini hızlandıran araç, test aşamasında moderatörlerden birinin aynı zaman aralığında yüzde 700 daha fazla istismar içeriği belirlemesini sağladı.
Birleşik Krallık merkezli IWF bu konuda çalışan en büyük organizasyonlardan biri. Üstelik kurumun çalışmalarına Google da dahil olmak üzere birçok uluslar arası teknoloji şirketi fon sağlıyor. IWF istismar içeren görüntüleri tespit etmesi için insan moderatörlerden ekipler oluşturmanın yanı sıra şüpheli içeriklerin bildirimesi için bir ihbar hattına da sahip. Böylece bir çok ülkeden gelen ihbarlar da değerlendiriliyor. Bu alanda kendi araştırma ekibini kuran IWF cinsel çocuk istismarı içerikleri paylaşılan siteleri saptayarak, bu sitelerin kapatılması için kanuni işlem başlatıyor.
Google'ın yeni yapay zeka aracını test edecek olan IWF, aracın moderatörlerin iş akışını nasıl etkilediğini de değerlendirecek. Bu tarz araçların tamamen otomasyon ile çalışan araçların öncüsü olabileceğini söyleyen Langford, bir süre sonra insan moderatörlerin içerikleri görmesine gerek kalmayabileceğini de belirtiyor.
İlk Yorumu yazmak ister misiniz?
Yorum Yazmak için Giriş Yap