Meta, çok riskli gördüğü yapay zeka sistemlerinin geliştirilmesini durdurabilir

Meta, yapay zeka güvenliği konusunda yeni bir çerçeve sunarak çok riskli gördüğü yapay zeka sistemlerinin geliştirilmesinin ve yayınlanmasının durdurulabileceğini açıkladı.
Meta, çok riskli gördüğü yapay zeka sistemlerinin geliştirilmesini durdurabilir

Meta, yapay zeka güvenliği konusunda yeni bir çerçeve sunarak çok riskli gördüğü yapay zeka sistemlerinin geliştirilmesinin ve yayınlanmasının durdurulabileceğini açıkladı. "Frontier AI Framework" adlı bu yeni politika, özellikle siber güvenlik ve biyogüvenlik alanlarında büyük riskler taşıyan yapay zeka sistemlerine odaklanıyor.

Şirket, belirli durumlarda kendi geliştirdiği yapay zeka modellerini kamuya açık hale getirmemeyi tercih edebileceğini belirtiyor.

Meta'nın yeni politikası, yapay zeka sistemlerini "yüksek risk" ve "kritik risk" olmak üzere iki kategoriye ayırıyor. Yüksek risk taşıyan sistemler, siber saldırıları veya biyolojik tehditleri kolaylaştırabilirken, kritik risk seviyesindeki sistemler "felaket niteliğinde" sonuçlara yol açabilecek düzeyde tehlikeli kabul ediliyor. Meta, kritik risk içeren sistemlerin geliştirilmesini durduracağını ve bunların güvenlik önlemleri alınmadan yayına sokulmayacağını açıkladı.

Risk değerlendirmesi konusunda Meta, belirli bir test kriteri yerine iç ve dış uzmanlardan oluşan bir ekibin değerlendirmelerine dayanacağını ifade ediyor. Şirket, mevcut bilimsel yöntemlerin yapay zeka sistemlerinin risk seviyelerini kesin olarak belirlemekte yetersiz olduğunu savunarak, nihai kararların üst düzey yöneticiler tarafından verileceğini belirtiyor. Yüksek riskli sistemlerin geliştirilmesi ise ancak belirlenen güvenlik önlemleriyle sınırlı şekilde devam edecek.

Frontier AI Framework, Meta'nın açık yapay zeka geliştirme politikasını sürdürürken, riskleri de minimize etmeye çalıştığını gösteriyor.

Teknoloji dünyasındaki gelişmeleri takip edin. Neleri size ulaştırmamızı istersiniz?
Abonelik kaydınız başarıyla oluşturuldu.