OpenAI "süper zeki" yapay zeka sistemlerini yönlendirmek ve kontrol altında tutmak için yeni bir ekip kuruyor. Bu karar, şirketin kurucularından biri olan Ilya Sutskever ve şirketin araştırmacılarından olan Jan Leike liderliğinde alındı. Ekip, dört yıl boyunca süper zeki yapay zeka üzerinde kontrol sağlama konusundaki temel teknik zorlukları çözmeye çalışacak.
OpenAI'nin bu kararı yapay zekanın toplum ve insanlığın yararına kullanılmasını sağlamak için önemli bir adım olarak nitelendiriliyor. Çünkü bilim insanları insan zekasını aşan bir yapay zekanın on yıl içinde ortaya çıkabileceğini öngörüyor. Bu durumun istenmeyen sonuçlar yaratacağı düşünülüyor. Yani bu yapay zeka kontrol edilmesi gereken bir araştırma alanı haline dönüşebilir. Eğer yapay zeka insan zekasını aşarsa, kontrolsüz bir şekilde hareket etmesi ciddi sonuçlara yol açabilir.
OpenAI'ın önemli iki ismi "Şu anda, potansiyel olarak aşırı zeki bir yapay zekayı yönlendirme veya kontrol etme konusunda bir çözümümüz yok ve yapay zekanın kontrolsüz hareket etmesini önleyemiyoruz." diyerek bu durumun ne kadar kritik olduğuna vurgu yapıyor.
Bir taraftan alignment yani yapay zeka sistemlerinin insan değerleri ve hedefleriyle uyumlu olarak çalışmasını sağlama süreci oldukça karmaşık. Çünkü yapay zeka sistemleri, insanların istediği sonuçları elde etmek veya belirli bir amaca hizmet etmek için tasarlanıyor. Ancak, hizalama problemi, yapay zekanın beklenen davranışları göstermesini sağlamak ve istenmeyen sonuçlardan kaçınmak için oldukça gerekli bir süreç.
Bu süreç de insanların yapay zekayı denetlemesine dayanıyor. Ancak süper zeki yapay zekaları güvenilir bir şekilde denetlemek mümkün olmayabilir.
İlk Yorumu yazmak ister misiniz?
Yorum Yazmak için Giriş Yap