Yapay Zeka İçin Yeni Kurallar – Sorular ve Cevaplar

 

Yapay Zeka İçin Yeni Kurallar 

-Sorular ve Cevaplar-

Avrupa Birliği Komisyonu

2021

 

  1. Yapay zeka teknolojisinin kullanımını neden hukuki olarak düzenlememiz gerekiyor?

Yapay zekanın toplumlarımız için potansiyel faydaları, gelişmiş tıbbi tedaviden daha iyi eğitime kadar çok çeşitlidir. Yapay zekanın hızlı teknolojik gelişimi ile karşı karşıya kalan AB, bu fırsatlardan yararlanmak için tek vücut halinde hareket etmelidir. Çoğu yapay zeka sistemi düşük veya sıfır risk barındırırken, bazı yapay zeka sistemleri istenmeyen sonuçlardan kaçınmak için ele alınması gereken riskler oluşturmaktadır. Örneğin, birçok algoritmanın şeffaf olmaması, belirsizlik yaratabilir, ayrıca güvenlik ve temel haklarla ilgili mevcut mevzuatın etkili bir şekilde uygulanmasını engelleyebilir. Bu zorluklara karşılık, hem faydaların hem de risklerin layıkiyle ele alındığı yapay zeka sistemleri için iyi işleyen bir iç pazar sağlamak üzere yasama faaliyetinin yürütülmesi gerekmektedir. Bu, biyometrik tanımlama sistemleri gibi uygulamaları veya işe alım, eğitim, sağlık hizmetleri veya yargı hususlarında olduğu gibi önemli kişisel alanlara değinen yapay zeka kararlarını içermektedir. Komisyon’un yapay zeka ile ilgili düzenleme önerisi, temel hakların korunması ve kullanıcı güvenliğinin sağlanması ile yapay zekanın geliştirilmesi ve benimsenmesine olan güvenin sağlanmasını amaçlamaktadır.

 

  1. Yeni yapay zeka kuralları hangi riskleri ele alacak?

Yapay zeka sistemlerinin kavranması toplumsal fayda ve ekonomik büyümeyi sağlama ile AB inovasyonunu ve küresel rekabet gücünü artırma konusunda güçlü bir potansiyele sahiptir. Bununla birlikte, belirli durumlarda, belirli yapay zeka sistemlerinin kendine özgü özellikleri, kullanıcı güvenliği ve temel haklarla ilgili yeni riskler oluşturabilmektedir. Bu, şirketler için hukuki belirsizliğe ve güven eksikliği nedeniyle işletmeler ve vatandaşlar tarafından yapay zeka teknolojilerinin potansiyel olarak daha yavaş kavranmasına yol açmaktadır. Ulusal makamların birbirinden tamamen farklı düzenleyici müdahaleleri, iç pazarın parçalanma riskini doğuracaktır.

 

  1. Risk kategorileri nelerdir?

Komisyon, dört risk seviyesi ile risk temelli bir yaklaşım önermektedir:

Kabul edilemez risk: Temel hakları ihlal ettikleri için AB değerlerine aykırı olan çok sınırlı sayıda, özellikle zararlı yapay zeka kullanımı yasaklanacaktır. (ör. hükümetler tarafından yapılan sosyal puanlama, çocukların kırılganlıklarının istismar edilmesi, bilinçaltı tekniklerinin kullanımı ve – dar istisnalara tabi olarak – kolluk kuvvetlerince kullanılan halka açık alanlarda canlı uzaktan biyometrik tanımlama sistemleri)

Yüksek risk: Öneride tanımlanan sınırlı sayıda yapay zeka sistemi, insanların güvenliği veya (AB Temel Haklar Şartı tarafından korunan) temel hakları üzerinde olumsuz bir etki yaratarak yüksek riskli olarak kabul edilmektedir. Önerinin ekinde, yapay zeka kullanım durumlarının evrimiyle uyumlu olacak şekilde (geleceğe dönük) gözden geçirilebilecek yüksek riskli yapay zeka sistemlerinin listesi yer almaktadır. Bunlar, sektörel Birlik mevzuatı tarafından kapsanan ürünlerin güvenlik unsurlarını da içermektedir. Sektörel mevzuat kapsamında üçüncü taraf uygunluk değerlendirmesine tabi olduklarında her zaman yüksek riskli olacaktır. Güveni ve aynı zamanda güvenliğin ve temel hakların yüksek düzeyde ve istikrarlı bir şekilde korunmasını sağlamak için tüm yüksek riskli yapay zeka sistemlerine yönelik zorunlu gereklilikler önerilmiştir. Bu gereklilikler kullanılan veri setlerinin kalitesi; teknik dokümantasyon ve kayıt tutma; şeffaflık ve kullanıcılara bilgi sağlanması; insan gözetimi; ve sağlamlık, doğruluk ve siber güvenlik konularını kapsamaktadır. İhlal durumunda, ulusal makamların yapay zeka sisteminin kullanımının hukuka uygun olup olmadığını araştırmak için gereken bilgilere erişmesine izin verilecektir. Öneri, Avrupa Birliği Temel Haklar Şartı ile tutarlı ve AB’nin uluslararası ticaret taahhütleriyle uyumludur.

Sınırlı risk: Belirli yapay zeka sistemleri için, örneğin açık bir manipülasyon riskinin olduğu durumlarda (örneğin, sohbet robotlarının kullanılması yoluyla) belirli şeffaflık gereksinimleri dayatılmaktadır. Kullanıcılar, bir makine ile etkileşimde bulunduklarının farkında olmalıdır.

Asgari risk: Diğer tüm yapay zeka sistemleri, ek hukuki yükümlülükler olmaksızın mevcut mevzuata tabi olarak geliştirilebilir ve kullanılabilir. Şu anda AB’de kullanılan yapay zeka sistemlerinin büyük çoğunluğu bu kategoriye girmektedir. Gönüllü olarak, bu sistemlerin sağlayıcıları güvenilir yapay zeka için gereklilikleri uygulamayı ve gönüllü davranış kurallarına uymayı seçebilir.

 

  1. Yüksek riskli yapay zeka sistemlerinin sağlayıcılarının yükümlülükleri nelerdir?

Yüksek riskli bir yapay zeka sistemini AB pazarında bulundurmadan veya başka bir şekilde hizmete sunmadan önce, sağlayıcılar bunu bir uygunluk değerlendirmesine tabi tutmalıdır. Sistemlerinin, güvenilir yapay zeka için zorunlu gerekliliklere uygun olduğunu (örneğin veri kalitesi, dokümantasyon ve izlenebilirlik, şeffaflık, insan gözetimi, doğruluk ve sağlamlık) göstermesi gerekecektir. Sistemin kendisinin veya amacının büyük ölçüde değiştirilmesi durumunda, değerlendirmenin yinelenmesi gerekecektir. Belirli yapay zeka sistemleri için, bağımsız bir onaylı kuruluşun da bu sürece dahil olması gerekecektir. Sektörel Birlik mevzuatı kapsamındaki ürünlerin güvenlik unsurları olan yapay zeka sistemleri, söz konusu sektör mevzuatı kapsamında üçüncü taraf uygunluk değerlendirmesine tabi tutulduğunda her zaman yüksek riskli olarak kabul edilecektir. Ayrıca biyometrik tanımlama sistemleri için üçüncü taraf uygunluk değerlendirmesi her zaman gereklidir.

Yüksek riskli yapay zeka sistemlerinin sağlayıcıları, bir ürün piyasaya sürüldükten sonra bile yeni gerekliliklere uymalarını sağlamak ve ayrıca kullanıcılar ve etkilenen kişiler için riskleri en aza indirmek için kalite ve risk yönetimi sistemlerini uygulamak zorunda kalacaktır. Piyasa gözetim otoriteleri, sağlayıcılara, farkına vardıkları temel hak yükümlülüklerinin ihlallerini veya ciddi olayları raporlama imkanı sunarak denetimler yoluyla piyasa sonrası izlemeyi destekleyecektir.

 

  1. Uyum nasıl tatbik edilecek?

Üye Devletler, bu düzenlemenin uygulanmasında ve yürütülmesinde kilit bir role sahiptir. Bu bağlamda, her Üye Devlet, uygulamayı ve yürütmeyi denetlemek ve piyasa gözetim faaliyetlerini gerçekleştirmek üzere bir veya daha fazla ulusal yetkili makam belirlemelidir. Verimliliği artırmak ayrıca halkla ve diğer muhataplarla resmi bir temas noktası oluşturmak için, her Üye Devlet, ülkesini Avrupa Yapay Zeka Kurulu’nda da temsil edecek bir ulusal denetim makamı oluşturmalıdır.

 

  1. Avrupa Yapay Zeka Kurulu nedir?

Avrupa Yapay Zeka Kurulu, yetkili ulusal denetim makamları, Avrupa Veri Koruma Denetçisi ve Komisyonun üst düzey temsilcilerinden oluşacaktır. Rolü, yeni yapay zeka düzenlemesinin sorunsuz, etkili ve uyumlu bir şekilde uygulanmasını kolaylaştırmak olacaktır. Kurul, yüksek riskli yapay zeka sistemlerine ve yeni kuralların etkili ve tekdüze uygulanmasına ilişkin diğer hususlara ile ilgili olarak Komisyona tavsiyelerde bulunacak ve görüş bildirecektir. Ayrıca, uzmanlığın geliştirilmesine yardımcı olacak ve ulusal makamların danışabileceği bir yetkinlik merkezi olarak hareket edecektir. Son olarak, bölgedeki standardizasyon faaliyetlerini de destekleyecektir.

 

  1. Yapay zeka sistemlerinin ve uygulamalarının ithal edilmesinde düzenlemeye uyulması gerekecek mi?

Evet. Yapay zeka sistemlerinin ithalatçıları, yabancı sağlayıcının gerekli uygunluk değerlendirme prosedürünü halihazırda yürüttüğünden ve düzenleme tarafından gerekli görülen teknik dokümantasyona sahip olduğundan emin olmalıdır. Ek olarak, ithalatçılar, sistemlerinin Avrupa Uygunluk (CE) işareti taşıdığından ve gerekli dokümantasyon ile kullanım talimatlarının bulunduğundan emin olmalıdır.

 

  1. Makine Emniyet Düzenlemesi yapay zeka ile nasıl ilişkilidir?

Makine Emniyet Düzenlemesi, yeni nesil makine ürünlerinin kullanıcıların ve tüketicilerin güvenliğini garanti altına almayı sağlamakta ve inovasyonu teşvik etmektedir. Makine ürünleri, robotlardan (temizlik robotları, kişisel bakım robotları, işbirliğine dayalı robotlar, endüstriyel robotlar) çim biçme makinelerine, üç boyutlu yazıcılara, inşaat makinelerine, endüstriyel üretim hatlarına kadar geniş bir tüketici ve profesyonel ürün yelpazesini kapsamaktadır.

 

  1. Yapay zeka ile ilgili düzenlemeye nasıl uyuyor?

Her ikisi de tamamlayıcıdır. Makine Emniyet Düzenlemesi, uygulanabilir olduğunda, bir bütün olarak makinenin güvenliğini tehlikeye atmamak için yapay zeka sisteminin tüm makineye güvenli bir şekilde entegre edilmesini sağlarken, yapay zeka düzenlemesi, makinelerde güvenlik işlevlerini sağlayan yapay zeka sistemlerinin güvenlik risklerini ele alacaktır.

 

 

Soruların tamamına ve orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683#3

Yapay Zeka Çözümleri İçin Veri Mahremiyeti İlkeleri

 

Yapay Zeka Çözümleri İçin Veri Mahremiyeti İlkeleri

Kasım 2020

 

Amaç

  1. Bu Kılavuz’un amacı, uygulamalı Bilgi ve İletişim Teknolojileri kapsamında geliştirilen yapay zeka çözümleri bağlamında kişisel ve kişi ile ilgili bilgilerin kullanımına ilişkin yol gösterici ilkeler sağlamak; hükümetler ve şirketler tarafından yapay zeka ile veri işlenmesinde meşru bir temelin önemini vurgulamaktır.
  2. Bu Kılavuz, özellikle yerel düzeyde uygulanacak olan yapay zeka çözümlerine ilişkin veri koruma standartlarında ortak uluslararası asgari bir temel oluşturmayı ve yapay zeka çözümleri açısından mahremiyet hakkının nasıl korunabileceğine dair devam eden tartışmalarda bir referans noktası olmayı amaçlamaktadır.
  3. Yapay zeka çözümleri, tüm yaşamımızı etkileyen kararlar vermek veya yol göstermek üzere tasarlanmaktadır. Bu nedenle, yapay zeka çözümleri şu anda toplum içinde geniş tartışmalara tabidir. Bu tartışma konuları -ayrımcılık yapmama dahil ahlaki, etik ve toplumsal sorunlar- hala çözülmeyi beklemektedir. Yapay zeka çözümleri için veri mahremiyetinin temelleri bu Kılavuz’un odak noktasıdır.
  4. Bu Kılavuz, İnsan Hakları Evrensel Beyannamesi’ne dayanmakta ve onun ruhunu ve anlayışını yansıtmaktadır. Yapay zeka çözümleri geliştirilirken veya kullanılırken, her şeyden önce Madde 7 (ayrımcılık yapmama) ve Madde 12 (mahremiyet hakkı) dikkate alınacaktır. Bu maddelerin konusu ve değeri Medeni ve Siyasi Haklara İlişkin Uluslararası Sözleşmesi’nin 2. ve 3. maddeleri (ayrım gözetmeme) ve 17. maddesinde (gizlilik) bulunmakta ve bunlar Sözleşme’yi onaylayan ülkelerin yükümlülüklerini oluşturmaktadır.

Kapsam 

  1. Bu Kılavuz, kamu ve özel sektör de dahil olmak üzere tüm sektörlerde yer alan yapay zeka çözümlerindeki veri işleme faaliyeti için geçerlidir. Bu bağlamda veri işleme, bir yapay zeka çözümünün tasarımı, geliştirilmesi, işletilmesi ve hizmet dışı bırakılması anlamına gelmektedir.
  2. Bu Kılavuz, yapay zeka çözümlerindeki tüm veri sorumluları için geçerlidir. Bu bağlamda veri sorumlusu, her biri kendi özel vazifesinde tasarımcı, geliştirici veya operatör anlamına gelmektedir.
  3. Bu Kılavuz, ilgili kişilere daha fazla, daha geniş veya herhangi bir şekilde daha iyi haklar, koruma ve / veya çözümler sağlayan herhangi bir yasayı sınırlamamakta veya etkilememektir. Bu Kılavuz, veri mahremiyetiyle ilgili veri sorumluları ve veri işleyenler üzerinde daha yüksek, daha geniş veya daha katı yükümlülükler getiren herhangi bir yasayı sınırlamamakta veya etkilememektedir.
  4. Bu Kılavuz, tamamen özel, kurumsal olmayan veya hane halkı ile ilgili faaliyetler bağlamında bireyler tarafından gerçekleştirilebilecek yapay zeka çözümlerine uygulanmamaktadır.

 

(Taslak Kılavuz 2 Kasım 2020 itibariyle yoruma kapatılmıştır.)

 

Taslak Kılavuzun orijinaline buradan ulaşabilirsiniz:

https://www.ohchr.org/Documents/Issues/Privacy/SR_Privacy/2020_Sept_draft_data_Privacy_guidelines.pdf

Güvenilir Yapay Zeka İçin Taslak Etik Esaslar

Güvenilir Yapay Zeka İçin Taslak Etik Esaslar

Avrupa Komisyonu Üst Düzey Uzman Grubu

18 Aralık 2018

 

ÖZET

 

Bu çalışma belgesi, Avrupa Komisyonu’nun Yapay Zeka Üst Düzey Uzman Grubu (AI HLEG) tarafından üretilen ve son hali Mart 2019’da belirlenecek olan YZ Etik Kuralları’nın bir taslağını oluşturmaktadır.

Yapay zeka, zamanımızın en dönüştürücü güçlerinden biridir ve toplumun dokusunu değiştirecektir. Avrupa’nın başarmak için çabalaması gereken refah ve büyümeyi artırma konusunda harika bir fırsat sunuyor. Son on yılda, çok miktarda dijital veri, güçlü bilgisayar mimarileri ve makine öğrenmesi gibi YZ tekniklerindeki gelişmeler sayesinde büyük ilerlemeler kaydedildi. Otonom taşıtlarda, sağlık hizmetlerinde, ev / hizmet robotlarında, eğitim veya siber güvenlik konularında önemli YZ gelişmeleri, yaşam kalitemizi her geçen gün arttırmaktadır. Ayrıca, YZ, küresel sağlık ve refah, iklim değişikliği, güvenilir yasal ve demokratik sistemler ve Birleşmiş Milletler Sürdürülebilir Kalkınma Hedefleri’nde ifade edilen diğer hususlar gibi, dünyanın karşı karşıya olduğu büyük zorlukların birçoğunun üstesinden gelmenin anahtarıdır.

Bireyler ve toplum için muazzam faydalar üretme kabiliyetine sahip olan YZ ayrıca, uygun şekilde yönetilmesi gereken belirli riskleri de barındırmaktadır. Genel olarak, YZ’nin faydaları risklerinden ağır basıyor olsa da, YZ’nin faydalarını azami düzeye çıkarırken, risklerini de asgariye indiren yolu takip etmemiz gerekir. Doğru yolda kalmamızı sağlamak için, insan merkezli bir YZ yaklaşımı, YZ’nin gelişimi ve kullanımının başlı başına bir araç olarak görülmemesi gerektiğini, aynı zamanda insan refahını arttırma hedefine sahip olduğumuzu aklımızda tutmayı da gerektirmektedir. Güvenilir YZ bizim kuzey yıldızımız olacak, çünkü insanlar teknolojiye güvenebilirlerse ancak o zaman YZ’nin meyvelerin tereddüt etmeden ve tam olarak yararlanabilecekler.

Güvenilir YZ’nin iki bileşeni vardır: (1) “etik bir amaç” sağlayacak şekilde temel haklara, uygulanabilir düzenlemelere ve temel ilke ve değerlere saygı göstermelidir ve (2) teknik olarak sağlam ve güvenilir olmalıdır, çünkü iyi niyetli olsa bile, teknolojik hakimiyet eksikliği istenmeyen zararlara neden olabilir.

Bu rehber bu nedenle Güvenilir YZ için bir çerçeve oluşturmaktadır:

-Bölüm I, Yapay zekanın uyması gereken temel hakları, ilkeleri ve değerleri belirleyerek, YZ’nin etik amacını sağlamayı ele almaktadır.

– Bu ilkelerin ardından Bölüm II, hem etik amacı hem de teknik sağlamlığı ele alarak Güvenilir YZ’nin gerçekleştirilmesi konusunda rehberlik eder. Bu, Güvenilir YZ için gereklilikleri listeleyerek ve uygulanması için kullanılabilecek teknik ve teknik olmayan yöntemlere genel bir bakış sunarak yapılmaktadır.

– Bölüm III daha sonra, Güvenilir YZ için somut fakat ayrıntılı olmayan bir değerlendirme listesi sağlayarak gereklilikleri işler hale getirmektedir. Bu liste daha sonra belirli kullanım durumlarına uyarlanır.

Bu nedenle, etik YZ ile ilgili diğer belgelerin aksine, rehberler, YZ için başka temel bir değer ve ilkeler listesi sunmayı amaçlamaz, bunun yerine YZ sistemlerinin somut olarak uygulanması ve işletilmesi konusunda rehberlik sunar. Bu rehberlik, Bölüm I’deki en soyuttan (temel haklar, ilkeler ve değerler), Bölüm III’teki (değerlendirme listesi) en somut olana kadar, üç ayrı kısımda sunulmaktadır.

Rehber, YZ’yi geliştiren, dağıtan veya kullanan, ilgili şirketleri, kuruluşları, araştırmacıları, kamu hizmetlerini, kurumları, bireyleri veya diğer kuruluşları kapsayan tüm ilgili paydaşlara yöneliktir. Bu rehberin son versiyonunda, paydaşların gönüllü olarak onay vermelerini sağlayacak bir mekanizma ortaya konacaktır.

Mühim olan ise, bu rehber, ne herhangi bir politika yapmanın veya düzenlemenin yerine geçmeyi (AI HLEG’nin ikinci çalışmasında ele alınacak: Mayıs 2019 Politika ve Yatırım Önerileri) ne de bunun tanıtımını engellemeyi amaçlamaktadır. Dahası rehber, teknoloji ve bilgimiz geliştikçe, sürekli olarak uygunluk sağlamak için zaman içinde düzenli olarak güncellenmesi gereken canlı bir belge olarak görülmelidir. Bu nedenle, bu belge “Avrupa’da yapılan Güvenilir YZ” tartışması için bir başlangıç noktası olmalıdır.

Avrupa, etik yaklaşımını sadece küresel düzeyde rekabet ederken yayınlayabilse de, YZ’ye etik bir yaklaşım, kullanıcı güvenini oluşturacağı ve daha geniş YZ algısını kolaylaştıracağından sorumlu rekabet gücünü sağlamak için kilit önemdedir. Bu rehber, Avrupa’daki YZ inovasyonunu engellemek anlamına gelmez, bunun yerine hem bireyleri hem de ortak yararı korumak ve fayda sağlamak gibi benzersiz bir YZ markası geliştirmek için etiği ilham kaynağı olarak kullanmayı amaçlar. Bu, Avrupa’nın en gelişmiş, güvenli ve etik YZ konusunda kendisini lider konuma getirmesine imkân tanır. Avrupa vatandaşları yalnızca güvenilirliği sağlayarak YZ’nin faydalarından tam olarak faydalanacaktır.

Son olarak, Avrupa’nın ötesinde, bu rehber ayrıca küresel düzeyde YZ için, etik bir çerçeve üzerinde yansımaları ve tartışmaları geliştirmeyi amaçlamaktadır.

 

Taslağın orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

 

https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai