AB, yapay zeka düzenlemesinde geçici bir anlaşmaya vardı

AB'nin yapay zeka düzenlemesi, teknolojilerin kontrolünü ve şeffaflığını artırarak potansiyel riskleri azaltmayı hedefliyor.
AB, yapay zeka düzenlemesinde geçici bir anlaşmaya vardı

Yapay zeka düzenlemesi, yapay zeka teknolojilerinin kontrol altına alınması ve kullanımının belirli kurallar çerçevesinde yapılmasını sağlayan önemli bir adım. Özellikle yapay zeka sistemlerinin şeffaflığını artırarak, nasıl çalıştıklarına dair daha fazla bilgi sunmalarını ve böylece potansiyel riskleri azaltmalarını sağlıyor. 

ChatGPT ve diğer üretimsel dil modellerinin hızlı yükselişi, bir dizi endişeye yol açtı. Bunlar arasında iş gücü değişiminin hızlanması, gizlilik ve telif hakları ihlalleri, yanlış bilgi ve nefret söyleminin yayılması gibi konular öne çıktı. 

Avrupa Birliği (AB) ülkeleri bu alanda bir adım atarak yapay zeka teknolojilerinin gelişimi ve kullanımını düzenleyecek yeni kurallar konusunda geçici bir anlaşma sağladı. Bu anlaşma ChatGPT gibi üretimsel yapay zeka modellerini de kapsıyor. AB'nin yeni yapay zeka düzenlemesi, Avrupa ülkeleri yetkilileri arasındaki uzun süren müzakerelerin ardından şekillendi. Ancak üretimsel yapay zeka modelleri ve biyometrik kimlik tespiti gibi konularda farklı düşünceler çatıştı.

Fransa, Almanya ve İtalya'dan gelen bazı milletvekilleri, üretimsel yapay zeka modellerini doğrudan düzenlemek yerine bu modelleri geliştiren şirketlerin hükümet tarafından belirlenen kurallara uyması gerektiğini savundu. Onlar bu düzenlemenin Avrupa'da inovasyonu engelleyebileceğinden endişe duydu. Endişe duyan ülkelerin Mistral AI ve DeepL gibi önemli üretimsel yapay zeka girişimlerine ev sahipliği yaptığını hatırlatalım. 

AB'nin yapay zeka düzenlemesi, dünyada yapay zeka teknolojisine odaklanan ilk büyük düzenleme olarak kabul ediliyor. Bu düzenleme süreci 2021'de Avrupa Komisyonu'nun yapay zeka için ortak bir yasal çerçeve oluşturma önerisine dayanıyor.

AB'nin yapay zeka düzenlemesi, yapay zeka şirketlerinin modellerinin işleyişlerini açıklamalarını ve bunları sistematik risk açısından değerlendirmelerini gerektirecek. Belirli ölçütleri karşılayan yüksek etkili genel amaçlı yapay zeka sistemlerinin oluşturucuları için risk değerlendirmeleri, düşmanca testler, olay raporları sunma gibi yükümlülükler getirilecek. Ayrıca yapay zeka sistemlerinin oluşturulmasında kullanılan verilere ilişkin detaylı özetler içeren teknik belgeler sağlama zorunluluğu getirilecek. Bu, Google ve OpenAI gibi firmalarının karşı çıktığı bir şey.

Bu kuralların neye göre uygulanacağı ve hangi ölçütlere göre cezaların belirleneceği gibi detaylar henüz netleşmedi. Şirketlerin kuralları ihlal etmesi durumunda uygulanacak cezalar, şirketin büyüklüğüne ve ihlalin niteliğine göre değişecek. Bazı uygulamalar ve faaliyetler yasaklanacak; örneğin, hassas kişisel özelliklere dayalı kategorizasyon ve duygu tanıma sistemleri gibi.

Bu düzenlemenin uygulanması, AB'nin yapay zeka gelişimi ve kullanımı için önemli bir adım. Ancak henüz kesinleşmemiş detaylar var. Düzenlemenin 2025'ten önce yürürlüğe girmesi beklenmiyor. Uygulamanın işletmeler ve toplum için faydalı olacağı düşünülüyor, ancak bazı eleştirilere de yol açabilir.

Teknoloji dünyasındaki gelişmeleri takip edin. Neleri size ulaştırmamızı istersiniz?
Abonelik kaydınız başarıyla oluşturuldu.