Aralarında OpenAI ve Google DeepMind'dan isimlerin de bulunduğu bir grup mevcut ve eski yapay zeka çalışanı, teknolojinin yarattığı risklere ilişkin endişelerini dile getirdi.
OpenAI'ın 11 mevcut ve eski çalışanı ile Google DeepMind'ın bir mevcut ve bir eski çalışanından oluşan bir grup tarafından kaleme alınan açık mektupta, yapay zeka şirketlerinin finansal güdülerinin etkin gözetimi engellediği belirtildi. Söz konusu mektupta, “Kurumsal yönetişimin ısmarlama yapılarının bunu değiştirmek için yeterli olduğuna inanmıyoruz” ifadesi kullanıldı.
Çalışanlar, mevcut eşitsizliklerin daha da derinleşmesi, manipülasyon, yanlış bilgilendirme ve otonom yapay zeka sistemlerinin kontrolünün kaybedilmesi gibi yapay zeka gelişiminden kaynaklanan bir dizi riskle karşı karşıya olduğumuzu öne sürüyor ve bunun insan neslinin tükenmesine yol açabileceğini söylüyor.
"Yapay zeka şirketleri, geliştirmeye devam etmek ve koruyucu önlemleri ve risk seviyeleri hakkında bilgi paylaşmaktan kaçınmak için güçlü finansal teşviklere sahip. Bu bilgileri gönüllü olarak paylaşma konusunda hepsine güvenilebileceğini düşünmüyoruz” denilen mektupta, mevcut ve eski çalışanlara seslerini duyurma görevi düştüğü belirtiliyor.
Paylaşılanlara göre bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar onları halka karşı sorumlu tutabilecek az sayıdaki kişi arasında yer alıyor. Ancak geniş gizlilik anlaşmaları, bu sorunları ele almada başarısız olabilecek şirketler dışında, çalışanların endişelerini dile getirmelerini engelliyor. Sıradan korumaların yetersiz olduğu; endişe duyulan risklerin çoğunun henüz düzenlenmediği de paylaşılanlar arasında.
Grup, yapay zeka şirketlerini mevcut ve eski çalışanların riskle ilgili endişelerini dile getirmeleri için bir süreci kolaylaştırmaya ve eleştiriyi yasaklayan gizlilik anlaşmalarını uygulamamaya çağırdı.
Hatırlarsanız OpenAI da Sam Altman liderliğinde yeni bir güvenlik komitesi kurmuştu. Buna göre ekip, ilk olarak OpenAI'ın süreçlerini ve güvenlik önlemlerini değerlendirecek. Komite bu önlemlerin ve süreçlerin daha da geliştirilmesini sağlayacak. Bu sürecin ardından komite, ilgili bulgularını OpenAI'ın güvenlik ekibinin üç liderinin de yer aldığı yönetim kuruluna sunacak. Yönetim kurulu daha sonra güvenlik ekibinin tavsiyelerinin nasıl uygulanacağına karar verecek.
İlk Yorumu yazmak ister misiniz?
Yorum Yazmak için Giriş Yap