Meta'nın yapay zeka araçlarındaki kültürel ön yargıları ele almak için sunduğu veri seti: FACET

Meta, araştırmacıların bilgisayar görüşü modellerini ön yargı açısından denetlemelerine yardımcı olmak için tasarlanmış veri seti FACET'i yayınladı.
Meta'nın yapay zeka araçlarındaki kültürel ön yargıları ele almak için sunduğu veri seti: FACET

Meta, araştırmacıların bilgisayar görüşü modellerini ön yargı açısından denetlemelerine yardımcı olmak için tasarlanmış veri seti FACET'i yayınladı. Şirket, yapay zeka süreçlerinde daha fazla özellik türünün tanınmasını ve hesaba katılmasını sağlamaya yardımcı olacak 32 bin görüntüden oluşan yeni, insan etiketli veri setinin lansmanı ile yapay zeka modellerinde daha fazla temsil ve adalet sağlamayı amaçlıyor.

Şirket FACET'i açık kaynak kodlu DINOv2 araç setinin güncellemesiyle birlikte kullanıma sunuyor. İlk olarak nisan ayında tanıtılan DINOv2, bilgisayar görüşü projelerini kolaylaştırmak için tasarlanmış bir yapay zeka modelleri koleksiyonu. Yeni güncelleme ile DINOv2 artık ticari kullanıma izin veren bir lisans altında sunuluyor.

Meta'nın yeni FACET veri seti, araştırmacıların bir bilgisayar görüşü modelinin yanlı sonuçlar üretip üretmediğini belirlemelerine yardımcı olmak için tasarlandı. Bir blog yazısında şirket, mevcut kıyaslama yöntemlerini kullanarak yapay zeka adaletini değerlendirmenin zor olduğunu detaylandırdı. Meta'ya göre FACET, araştırmacıların birkaç farklı bilgisayar görüşü modelini denetlemek için kullanabilecekleri büyük bir değerlendirme veri seti sağlayarak görevi kolaylaştıracak.

Meta araştırmacıları blog yazısında, "Veri seti, demografik özellikler (örneğin, algılanan cinsiyet, algılanan yaş gibi), ek fiziksel özellikler (örneğin, algılanan cilt tonu, saç modeli) ve kişiyle ilgili sınıflar (örneğin, basketbol oyuncusu, doktor) için uzman insan açıklayıcılar tarafından etiketlenmiş 50 bin kişiyi içeren 32 bin görüntüden oluşuyor" dedi. Paylaşışanlara göre FACET ayrıca SA-1B'den 69 bin maske için kişi, saç ve kıyafet etiketleri de içeriyor.

Kaynak: Meta

Araştırmacılar, FACET'teki fotoğrafları işlemesini sağlayarak herhangi bir bilgisayar görüşü modelini adalet sorunları açısından kontrol edebiliyorlar. Buradan, modelin sonuçlarının doğruluğunun fotoğraflar arasında değişip değişmediğini belirlemek için bir analiz yapılabiliyor. Bu tür doğruluk farklılıkları, yapay zekanın ön yargılı olduğunun bir işareti olabilirken, Meta, FACET'in dört tür bilgisayar görüşü modelinde adalet sorunlarını bulmak için kullanılabileceğini söylüyor.

Meta araştırmacıları, FACET'in yalnızca araştırma değerlendirme amaçlı olduğunu ve eğitim için kullanılamayacağını da belirtiyor. 

Teknoloji dünyasındaki gelişmeleri takip edin. Neleri size ulaştırmamızı istersiniz?
Abonelik kaydınız başarıyla oluşturuldu.