AB Kurulu, üye ülkeler ile Avrupa Parlamentosu (AP) ortasında müzakere edilen ve dünyada yapay zekaya yönelik birinci kapsamlı kuralları getirecek “Yapay Zeka Yasası” konusunda uzlaşı sağlandığını açıkladı.
Buna nazaran, Avrupa ülkelerinde kullanılacak yapay zeka sistemlerinin inançlı olması, temel haklara ve Birlik bedellerine saygılı göstermesi gerekecek.
Yapay zeka sistemleri topluma ziyan verme ihtimaline nazaran “risk temelli” bir yaklaşımla düzenlenecek.
Yüksek riskli yapay zeka sistemlerine daha katı kurallar getirilecek. Yapay zekayı kolay yazılım sistemlerinden ayıracak açık kriterler belirlenecek.
Yapay zekanın, hiçbir durumda üye ülkelerin ulusal güvenlik konusundaki yeterliliklerini yahut bu alanda görevlendirilen rastgele bir kuruluşu etkilememesi sağlanacak.
Yapay zeka kanunu, sırf askeri yahut savunma gayeli kullanılan sistemler için geçerli olmayacak.
Sınırlı risk sunan yapay zeka sistemleri, kullanıcıların şuurlu kararlar alabilmesi için içeriğin yapay zeka tarafından oluşturulduğunu açık biçimde bildirecek. Bu sistemler, hafif şeffaflık yükümlülüklerine tabi tutulacak.
Çeşitli yüksek riskli yapay zeka sistemlerine müsaade verilecek. Lakin yüksek riskli yapay zeka sistemlerinin AB pazarına erişimi bir dizi kural ve yükümlülüğe tabi olacak.
Yapay zekanın birtakım kullanımlarındaki risk kabul edilemez olarak pahalandırılacak ve bu sistemler AB’de yasaklanacak.
Bilişsel davranış manipülasyonu, yüz imajlarının internetten yahut kapalı kamera sistem manzaralarından amaçsız alınması, iş yerinde ve eğitim kurumlarında his tanıma, toplumsal puanlama, cinsel yönelim yahut dini inançlar üzere hassas bilgileri çıkarmak için biyometrik sınıflandırma yapılması yasak kapsamına girecek.
Kolluk kuvvetleri faaliyetlerinde yapay zekayı kullanabilecek. Kolluk kuvvetleri, acil durum prosedürü ile olağanda uygunluk kıymetlendirme prosedürünü geçemeyen yüksek riskli bir yapay zeka aracını devreye sokabilecek.
Emniyet üniteleri istisnai ve gerekli durumlarda, kamuya açık alanlarda gerçek vakitli uzaktan biyometrik tanımlama sistemlerini müsaade alarak kullanabilecek.
Bu tıp yapay zeka sistemleri kullanımı terör atakları, mevcut yahut öngörülebilir tehditlerin önlenmesi ve en önemli hatalardan şüphelenilen bireylerin aranması üzere durumlarla hudutlu olacak.
Bununla birlikte, yapay zeka sistemlerinin muhtemel suiistimallerine karşı temel hakların gereğince korunmasını sağlamak için özel bir sistem uygulamaya konulacak.
Video, metin, manzara oluşturma, öbür lisanda konuşma, hesaplama yahut bilgisayar kodu yazma üzere çok çeşitli farklı misyonları yerine getirebilen büyük sistemlere özel kurallar getirilecek. Kelam konusu genel emelli yapay zeka sistemlerinin piyasaya sürülmeden evvel çeşitli şeffaflık yükümlülüklere uyması sağlanacak.
AB Kurulu bünyesinde, gelişmiş yapay zeka modellerini denetlemek, standartların ve test uygulamalarını geliştirmeye katkıda bulunmak ve bütün üye ülkelerde ortak kuralları uygulamakla vazifeli bir “Yapay Zeka Ofisi” kurulacak.
Bağımsız uzmanlardan oluşan bilimsel bir panel, Yapay Zeka Ofisine tavsiyelerde bulunacak.Üye ülkelerin temsilcilerinden oluşacak olan Yapay Zeka Şurası, Komite için bir uyum platformu ve müşavere organı olarak çalışacak.
Yapay zeka kanununun ihlaline ait para cezaları, cürmü işleyen şirketin bir evvelki mali yıldaki global yıllık cirosunun yüzdesine yahut evvelden belirlenen ölçülere nazaran yüksek olan baz alınarak hesaplanacak.
Yasaklı yapay zeka uygulamalarının ihlali durumunda şirket cirosunun yüzde 7’si yahut 35 milyon avro, yükümlülüklere uymama durumunda cirosunun yüzde 3’ü yahut 15 milyon avro, yanılgılı data paylaşılması durumunda da cirosunun yüzde 1,5’i yahut 7,5 milyon avro para cezası kesilecek. Ceza kesilirken şirkete maliyeti yüksek olan paha kullanılacak.
AB ülkeleri ve AP tarafından resmen onaylanmasının akabinde yürürlüğe girecek yasanın uygulamasına resmi onayın 2 yıl sonrasında başlanacak.
AB Kurulu 2 yıl evvel yapay zeka konusunda yeni kurallar çerçevesini içeren birinci yasal düzenleme teklifini hazırlayıp üye ülkelere ve AP’ye sunmuştu.
Bu teklif, yapay zeka sistemlerinin kullanımında birtakım sınırlama ve şeffaflık kuralları getiriyordu. Kurulun yasa teklifinde, yapay zeka sistemleri kabul edilemez risk, yüksek risk, hudutlu risk ve en az risk olmak üzere 4 ana kümeye ayrılıyordu.
Yeni yasa ile birlikte Google’ın yapay zeka modeli Gemini ve ChatGPT üzere çeşitli yapay zeka teknolojilerinin yeni kurallara uyması gerekecek.