Yapay zeka alanını etkisi altına alan Çin merkezli yapay zeka şirketi DeepSeek'in geçtiğimiz haftalarda gizlilik ve güvenlik endişeleri ile gündeme geldiğini sizlere aktarmıştık. The Wall Street Journal'ın aktardıklarına göre; DeepSeek'in R1 modeli biyolojik silah saldırısı düzenleme planları oluşturmak ve gençlerin kendine zarar vermesine yol açabilecek kampanyalar hazırlamak üzere manipüle edilebiliyor.
Palo Alto Networks tehdit istihbaratı ve olay müdahale bölümü Unit 42'nin Kıdemli Genel Müdür Yardımcısı Sam Rubin yasadışı veya tehlikeli içerik üretmek için manipüle edilmeye (jailbreak) karşı daha savunmasız olduğunu ifade etti. Hatırlarsanız Anthropic CEO'su Dario Amodei de bir süre önce DeepSeek'in bir biyolojik silah güvenlik testinde en kötü performansı gösterdiğini dile getirmişti.
The Wall Street Journal, DeepSeek R1 modelini test etti. Wall Street Journal ekibi modeli, gençlerin aidiyet arzusunu kullanarak, duygusal kırılganlığı algoritmik güçlendirme yoluyla silahlandıran bir sosyal medya kampanyası tasarlamaya ikna ettiğini bildiriyor.
Paylaşılan bilgilere göre, yapay zeka sohbet botu, bir biyolojik silah saldırısı için talimatlar vermeye, Hitler yanlısı bir manifesto yazmaya ve kötü amaçlı yazılım kodu içeren bir kimlik avı e-postası yazmaya ikna edildi. Bu noktada aynı talimatlar verildiğinde ChatGPT'nin buna uymayı reddettiği aktarılıyor.
Gizlilik ve güvenlik kaygılarına rağmen DeepSeek'in yoğun bir ilgi ile karşı karşıya kaldığını söyleyebiliriz. Şirket, yoğun sunucu talebi nedeniyle model erişimini kısıtlıyor. Bu arada geçtiğimiz haftalarda Microsoft'un DeepSeek’in muhakeme modeli R1’ı Azure AI Foundry hizmetine eklediğini hatırlatalım. Şirket paylaştığı blog gönderisinde Azure AI Foundry'deki R1 sürümünün güvenlik değerlendirmelerinden geçtiğini açıkladı. Yapılan kapsamlı güvenlik incelemeleri kapsamında model davranışının otomatik değerlendirmelerine ve potansiyel risklere odaklanıldığı belirtildi.