OpenAI, bir görüntünün kendi DALL-E ile üretilip üretilmediğini tespit etmek için yeni bir araç geliştirdiğini duyurdu. Ancak OpenAI'ın deepfake dedektörü, şu an için sadece kendi ürünü tarafından üretilen görüntülerde başarılı bir şekilde çalışıyor.
OpenAI, teknolojinin ilerlemesiyle deepfake'lerin daha büyük bir tehdit haline gelmeyeceği yanılsamasına kapılmadığını belirtti ve bu nedenle tespit araçlarının geliştirilmesinin hayati önem taşıdığını vurguladı. Yeni dedektörü, bir görüntünün orijinalinden değiştirilip değiştirilmediğini tahmin edebilen yapay zeka, şirketin yüzde 98'in üzerinde doğruluk oranına sahip olduğunu açıkladı. Ancak, diğer şirketlerin oluşturduğu görüntülerde doğruluk oranının sadece yüzde 5 ila yüzde 10 arasında olduğunu belirtti.
OpenAI, konuyla ilgili paylaştığı blog yazısında, "Kaynağa ilişkin çabalarımız, daha geniş bir endüstri çabasının sadece bir parçası ve akran araştırma laboratuvarlarımızın ve üretimsel yapay zeka şirketlerimizin çoğu da bu alandaki araştırmaları ilerletiyor. Bu çabaları takdir ediyoruz. Sektör, anlayışımızı geliştirmek ve online şeffaflığı teşvik etmeye devam etmek için iş birliği yapmalı ve içgörüleri paylaşmalı." ifadesini kullandı.
OpenAI şu anda, dijital içerik kaynağı için teknik standartları ilerletmek amacıyla diğer şirketlerle birlikte Coalition for Content Provenance and Authenticity, yani C2PA'nın yönlendirme komitesinin bir üyesi. Google da son zamanlarda bu oluşuma katılarak Adobe, Intel, Meta, Microsoft, OpenAI ve Sony gibi şirketlerin yanında yer aldı.
C2PA standardı, hareketsiz görüntü, metin, video veya ses olsun, değiştirilmiş içeriğe bir etiket eklemeyi hedefliyor. Bu etiket, içeriğin ne zaman ve nasıl değiştirildiğini belirtecek, bu da yapay zeka ile ilgili endişeleri olan politikacıların daha fazla mevzuat istemelerini önleyebiliyor. AB ve Birleşik Krallık'ın bu konuda ABD'den önde olduğu vurgulanıyor.
İlk Yorumu yazmak ister misiniz?
Yorum Yazmak için Giriş Yap