ABD Savunma Bakanlığı, Anthropic’i tedarik zinciri riski olarak sınıflandırdı

ABD Savunma Bakanlığı, yapay zeka girişimi Anthropic'i, Pentagon'un Claude AI modelini kullanmasını kısıtlamaya çalıştığı için tedarik zinciri riski olarak resmen etiketledi.
ABD Savunma Bakanlığı, Anthropic’i tedarik zinciri riski olarak sınıflandırdı

Anthropic'in yapay zeka modellerini ABD Savunma Bakanlığı'nın kitlesel iç gözetim veya tamamen otonom silahlar için kullanmasına müsaade etmemesi, ABD Başkanı Donald Trump'ın tüm federal kurumlara Anthropic'in ürünlerini kullanmayı durdurma emri vermesiye sonuçlanmıştı. Savunma Bakanı Pete Hegseth ise Anthropic'i tedarik zinciri tehdidi olarak belirleme planlarını açıklamıştıBloomberg ve Politico tarafından aktarılan bilgilere göre ABD Savunma Bakanlığı, yapay zeka girişimi Anthropic'i, Pentagon'un Claude AI modelini kullanmasını kısıtlamaya çalıştığı için tedarik zinciri riski olarak resmen etiketledi.

Bakanlık yazılı açıklamasında Anthropic yönetimine, şirketin ve ürünlerinin tedarik zinciri riski olarak değerlendirildiğini ve bu kararın derhal yürürlüğe girdiğini resmi olarak bildirdiğini belirtti. Pentagon açıklamasında şu ifadelere yer verdi: 

Başından beri bu, temel bir ilkeyle ilgiliydi: ordunun teknolojiyi tüm yasal amaçlar için kullanabilmesi. Ordu, bir tedarikçinin kritik bir yeteneğin yasal kullanımını kısıtlayarak komuta zincirine girmesine ve savaşçılarımızı riske atmasına izin vermeyecektir.

Anthropic CEO'su Dario Amodei, ABD ordusunun yapay zeka sistemlerini Amerikalıları toplu olarak gözetlemek veya hedef belirleme veya ateşleme kararlarında hiçbir insanın yardımı olmadan tamamen otonom silahları çalıştırmak için kullanmasına izin vermeyi reddetmişti. Bu kararıyla Bakanlık, yapay zeka kullanımının özel bir yüklenici tarafından sınırlandırılmaması gerektiğini savunuyor.

Tedarik zinciri riski sınıflandırması ne anlama geliyor?

Genellikle yabancı düşmanlar için kullanılan tedarik zinciri riski sınıflandırması, Pentagon ile çalışan tüm şirket veya kurumların, Anthropic'in modellerini kullanmamasını gerektiriyor. Pentagon'un bu kararı, hem şirketi hem de kendi operasyonlarını aksatabilir. 

Anthropic, gizli bilgilere erişime hazır sistemlere sahip tek öncü yapay zeka laboratuvarı olarak tanımlanıyor. ABD ordusu şu anda İran harekatında Claude'dan yararlanırken, Bloomberg'ün paylaştığına göre Claude, Orta Doğu'daki askeri operatörlerin güvendiği Palantir'in Maven Akıllı Sistemine yüklenen ana araçlardan biri. 

Savunma Bakanlığı'nın eylemlerini “misilleme ve cezalandırıcı” olarak nitelendiren Amodei, Başkan Trump'ı övmeyi veya ona bağış yapmayı reddetmesinin Pentagon ile olan anlaşmazlığa katkıda bulunduğunu dile getirdi. Bu noktada OpenAI yöneticisi Greg Brockman'ın yakın zamanda MAGA Inc. Super PAC'a 25 milyon dolar bağışladığını belirtmekte fayda var. 

Anthropic kararı mahkemeye taşıyabilir 

Ayrıca Dario Amodei, Anthropic'in, Savunma Bakanlığı'nın şirketi tedarik zinciri riski olarak nitelendirme kararına mahkemede itiraz etmeyi planladığını açıkladı. Amodei, bu kararın “yasal olarak geçersiz” olduğunu belirtti. Amodei açıklamasında, Anthropic'in müşterilerinin büyük çoğunluğunun tedarik zinciri riski tanımından etkilenmediğini dile getirdi:

Müşterilerimizle ilgili olarak, bu durum açıkça sadece Savaş Bakanlığı ile sözleşmelerin doğrudan bir parçası olarak Claude'u kullanan müşteriler için geçerlidir, bu tür sözleşmeleri olan müşterilerin tüm Claude kullanımları için geçerli değildir.

Anthropic'in Washington'daki federal mahkemede bu karara itiraz etmesi olası, ancak kararın arkasındaki yasa, şirketlerin hükümetin ihale kararlarına itiraz edebilecekleri olağan yolları sınırlandırıyor. Bununla beraber yasa, Pentagon'a ulusal güvenlik konularında geniş bir takdir hakkı vermekte. Bu durum da itirazı zorlaştırıyor.

Anthropic'e destek sürüyor 

Tüm bunlar olurken eleştirmenler de Anthropic'i yalnız bırakmadı. Pek çok eleştirmen, bu anlaşmazlık nedeniyle Anthropic'i tedarik zinciri riski olarak nitelendirmenin, Bakanlık tarafından eşi görülmemiş bir hareket olduğunu dile getiriyor. Bununla beraber, OpenAI ve Google'da çalışan yüzlerce kişi, Savunma Bakanlığı'nı bu kararını geri çekmeye çağırırken, Kongre'den, bir Amerikan teknoloji şirketine karşı uygunsuz bir yetki kullanımı olarak algılanabilecek bu kararı geri çekmesini talep etti. Ayrıca çalışanlar liderlerini, birlikte hareket etmeye davet ediyor. Özellikle liderlerin, ABD Savunma Bakanlığı'nın yapay zeka modellerini yurt içi kitlesel gözetim ve insan denetimi olmadan özerk olarak insanları öldürmek için kullanma taleplerini reddetmesi isteniyor. 

Bu esnada OpenAI, ordunun AI sistemlerini tüm yasal amaçlar için kullanmasına izin vermek üzere Bakanlıkla kendi anlaşmasını yaptı. Şirketin bazı çalışanları, Anthropic'in kaçınmaya çalıştığı türden kullanımlara yol açabilecek anlaşmanın belirsiz ifadeleri konusunda endişelerini dile getirdi.

Teknoloji dünyasındaki gelişmeleri takip edin. Neleri size ulaştırmamızı istersiniz?
Abonelik kaydınız başarıyla oluşturuldu.