Skip links

İçinde AI Geçen İlk Yasa

Dünyada ilk kez içinde AI yazan, yapay zeka ile ilgili bir yasa Avrupa Parlamentosunda onaylandı. AB üye devletlerin onay süreçlerinin tamamlanmasıyla 2026 ortasına kadar aşamalı olarak yürürlüğe girecek.

AI Yasası, yapay zeka sistemlerini potansiyel risklerine göre dört kategoriye ayırıyor: Düşük Risk, Kabul Edilebilir Risk, Kabul Edilemez Risk, Yüksek Risk.

Yüksek riskli olarak sınıflandırılan yapay zeka sistemleri için şeffaflık, veri kalitesi ve doğruluk, insan müdahalesi ve güvenlik gibi konularda sıkı şartlar getiriliyor.

Kabul edilemez risk taşıyan bazı yapay zeka uygulamaları tamamen yasaklanıyor. Kullanıcıların, bir yapay zeka sistemi tarafından üretilmiş içeriği (örneğin, deepfake görüntüler) tanıyabilmesi için şeffaflık gereklilikleri bulunuyor. Yasa yüksek riskli yapay zeka sistemlerinin eğitimi için kullanılan verilerin kalitesi ve güvenilirliği üzerinde sıkı kontrol oluşturulmaya çalışıyor.

Üye devletlerin, piyasada bulunan yapay zeka sistemlerini denetlemesi ve yasaya uygunluğunu sağlaması için mekanizmalar kurması gerekecek. Yasanın ihlali durumunda, şirketlere büyük cezalar uygulanabilecek. Bu yasa, yapay zeka teknolojisinin gelişimi ve kullanımı üzerinde büyük bir etki yaratacak ve dünya çapında benzer düzenlemeler için bir örnek teşkil edebilecek.

Kilit Yasaklar

Doğrudan yasaklanacak yapay zeka uygulamaları:

  • İnsanları manipüle etmek veya aldatmak için sübliminal teknikleri kullanmak
  • İnsanların fiziksel veya sosyo-ekonomik durumlarından kaynaklanan zayıflıklarını istismar etmek
  • Irk veya cinsel yönelim gibi hassas özellikleri tespit etmek için biyometrik verileri kullanmak
  • Sosyal puanlama amacıyla insanları sınıflandırmak
  • Bir kişinin suç işleyip işlemeyeceğini tahmin etmeye çalışmak,
  • İnsanların görüntülerini resim ve videodan okuyarak yüz tanıma veritabanlarını genişletmeye çalışmak
  • İş yerlerinde ve eğitim kurumlarında insanların duygularını çıkarmaya çalışmak

Kamu alanlarında yasal amaçlar için gerçek zamanlı, uzaktan biyometrik tanımlamanın kullanılması da yasaklanmaktadır. Ancak, kaçırılma veya seks ticareti kurbanlarının ve diğer kayıp kişilerin aranması, ciddi suçlarla şüphelenilen kişiler veya terörist saldırının belirli ve yakın tehdidi ile ilgilenen yasalara uygulayıcılar için önemli istisnalar bulunmaktadır.

Değerlendirme

Birçok yapay zeka sistemi yüksek riskli olarak kabul edilebilir; bu durumda, yapay zeka hizmeti sağlayıcıların insan gözetimi ile kullanıldıklarından, uygun düzeyde doğruluk ve güvenlik sunduğundan, kapsamlı dokümantasyona sahip olduğundan ve temelde vaat edildikleri gibi çalıştıklarından emin olmaları gerekecektir. Bunlar arasında, bir ürünün güvenliğini sağlayan; yasaklanmayan biyometrik tanımlama veya duygu tanıma işlemleri gerçekleştiren; işe alım süreçlerinde kullanılan; kamu hizmetleri veya vizeler için uygunluk değerlendirmesi yapan; yasal uygulamalarda kullanılan veya kritik altyapının bir parçası olan yapay zeka sistemleri bulunabilir.

Yasa, GPT-4 ve Gemini gibi modellere genellikle atıfta bulunulan temel modeller yerine, genel amaçlı yapay zeka (GPAI) modellerinden bahsediyor. Bu tür modelleri geliştiren kurum ve şirketler, Avrupa Komisyonu’nun yeni AI Ofisi ve ulusal düzenleyicilere güncel teknik dokümantasyon sağlamak zorunda kalacaklar.

GPAI modeli geliştiricileri genellikle eğitimde kullanılan içeriğin “yeterince detaylı bir özeti”ni yayınlamak zorunda kalacak ve AB telif hakkı yasasına açıkça uymak zorunda olacaklar. Ancak, çok güçlü olmadığı sürece Meta’nın Llama modelleri gibi tamamen açık kaynaklı hale getirilmiş GPAI modelleri için istisnalar mevcut.

Explore
Drag