Google, makine öğrenmesi frameworkü TensorFlow'a yapay zeka geliştiricilerinin veri güvenliğini sağlayabilmesi için yeni bir modül ekledi. Geliştiriciler bu yeni modül sayesinde fazladan birkaç satır kod ile yapay zeka modellerinin gizliliğini ileri seviyeye taşıyabilecek.
Makine öğrenmesi uygulamaları geliştirmek için en çok tercih edilen araçlardan biri olanTensorFlow'un, genellikle geliştiriciler tarafından metin, ses ve görsel tanıma algoritmaları oluşturmak amacıyla kullanıldığını hatırlatalım. Geliştiriciler, TensorFlow'un gizlilik odağında geliştirilen yeni modülü TensorFlow Privacy ile diferansiyel gizlilik adıyla bilinen istatistiksel teknik sayesinde kullanıcıların verilerini koruyabilecek.
Bu noktada Google'ın yapay zeka geliştirme alanında geçtiğimiz yıl açıkladığı prensipleri yerine getirmek üzere hareket ettiği açık.Google'ın ürün müdürü Carey Radebaugh ise konuyla ilgili yaptığı açıklamada şu ifadelere yer veriyor:
TensorFlow'a diferansiyel gizlilik benzeri bir şeyi dahil etmezsek, Google’ın içindeki ve dışındaki ekiplerin bunu kullanmasının kolay olmayacağını biliyoruz. Dolayısıyla bizim için bunu TensorFlow'a dahil etmek, açık kaynaklı hale getirmek ve bu topluluğu onun çevresinde oluşturmaya başlamak önemli.
Diferansiyel gizliliğin mekaniği biraz karmaşık olsa da, bu kavramı kullanıcı verileri üzerinde eğitilmiş yapay zeka modellerinin kişisel olarak tanımlanan bilgileri kodlayamamasını sağlayan matematiksel bir yaklaşım olarak tanımlayabiliriz. Yapay zeka modelleri geliştirirken kullanıcı gizliliğinin korunması için bu yaklaşıma sıkça başvurulduğunu da belirtelim. Örneğin Apple, bu alanda iOS 10 ile Yapay Zeka hizmetlerini sunarken, Google da Gmail’in Akıllı Yanıt gibi birçok yapay zeka özelliği için benzer yöntemleri kullanıyor.
Bu noktada yapay zekanın gizliliği nasıl ihlal edebileceğinden bahsetmekte de fayda var. Gmail'in Akıllı Yanıt özelliğini ele aldığımızda, bu özelliğin gelişebilmesi için şirket bir milyardan fazla Gmail kullanıcısının verilerini kullandı. E-postalarınızın sizin hakkınızda içerdiği bilgileri düşündüğünüzde, Akıllı Yanıtların başkasına sizin yazdığınız herhangi bir yanıtı başkasına kelimesi kelimesine önermesini arzu etmezseniz.
Dolayısıyla TensorFlow'a diferansiyel gizlilik modülünün eklenmesi, kullanıcıların gizliliğini koruyan yapay zeka uygulamaları geliştirmek isteyen geliştiriciler kadar gizliliğinin korunmasını isteyen kullanıcılar için de önemli.
Öte yandan diferansiyel gizliliğin, yapay zekanın öğrendiği ve aktardığı verilerin matematiksel kesinliğini elimine ettiğini söylemekte de fayda var. Aynı şekilde diferansiyel gizlilik ile aykırı değerlerin maskelenmesi, alakalı veya ilgi çekici verilerin yok olması anlamına gelebiliyor.
Tüm bu olumsuz ihtimallere rağmen TensorFlow Privacy'nin dünya çapında daha fazla yapay zeka geliştiricisine açılması bir süre sonra bu problemlerin etkisiz hale getirilmesini sağlayabilir. Bunun yanı sıra yapay zeka ve makine öğrenme alanına gizlilik kavramının getirilmesi, hem kullanıcılar hem de teknoloji üreticileri için büyük bir adım.
İlk Yorumu yazmak ister misiniz?
Yorum Yazmak için Giriş Yap