Yapay Zeka Fizibilite Çalışması

 

Yapay Zeka Fizibilite Çalışması

 

Avrupa Konseyi

Yapay Zeka Ad Hoc Komitesi

2020

Giriş

“Yakın zamanda Parlamenterler Meclisi (PACE) tarafından kabul edilen raporlar da dahil olmak üzere, çeşitli Avrupa Konseyi belgelerinde belirtildiği gibi, yapay zeka sistemleri bireylerin yaşamını büyük ölçüde dönüştürmekte ve toplumun yapısı ve kurumlarının işleyişi üzerinde derinlemesine bir etkiye sahip olmaktadır. Kullanımları sağlık, ulaşım, eğitim ve kamu yönetimi gibi çok sayıda alanda önemli faydalar sağlama potansiyeline sahiptir ve genel itibariyle insanlık için umut verici fırsatlar oluşturmaktadır. Bunun yanında, yapay zeka sistemlerinin geliştirilmesi ve kullanımı, özellikle Avrupa toplumunun üzerine inşa edildiği temel unsurlar olan insan hakları, demokrasi ve hukukun üstünlüğüne müdahale konusunda önemli riskleri de beraberinde getirmektedir.

Yapay zeka sistemleri, etkisi yalnızca tasarımına bağlı olmayan, aynı zamanda kullanılan veriler, güdülen amaçlar, işlevsellik ve doğruluk, dağıtım ölçeği ve kullanıldığı daha geniş kurumsal, toplumsal ve yasal bağlam dolayısıyla “sosyo-teknik sistemler” olarak görülmelidir. Yapay zeka sistemlerinin olumlu veya olumsuz sonuçları aynı zamanda onları geliştiren ve kullanan insanların değerlerine ve davranışlarına da bağlıdır, bu da insan sorumluluğunun sağlanmasının önemine yol açmaktadır. Bununla birlikte, yapay zeka sistemlerinin, insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki olumlu ve olumsuz etkileri açısından onları diğer teknolojilerden ayıran bazı farklı özellikleri vardır.

İlk olarak, yapay zeka sistemlerinin ölçeği, bağlılığı ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri artırabilmektedir. Yapay zeka sistemleri, insanlardan çok daha hızlı bir şekilde, benzeri görülmemiş miktarda ayrıntılı veriyi (son derece hassas kişisel veriler dahil) analiz edebilmektedir. Bu yetenek, yapay zeka sistemlerinin, “proxy discrimination ” olarak adlandırılan durumlarda yeni ayrımcılık temellerine dayalı olarak, haksız önyargıyı devam ettirecek veya artıracak şekilde kullanılmasına yol açabilmektedir. Makine öğrenimi bağlamında bu ayrımcılığın artan önemi, doğrudan ve dolaylı ayrımcılık arasındaki farkın veya aslında, geleneksel olarak anlaşıldığı şekliyle, bu farkın uygunluğuna ilişkin yoruma dayalı soruları ortaya çıkarabilmektedir. Ayrıca, yapay zeka sistemleri istatistiksel hata oranlarına sahiptir. Milyonlarca insana uygulanan bir sistemin hata oranı sıfıra yakın olsa bile, sistemlerin dağıtım ölçeği ve birbirine bağlanabilirliği nedeniyle binlerce kişi yine de olumsuz etkilenebilmektedir. Öte yandan, yapay zeka sistemlerinin ölçeği ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri ve önyargıları azaltmak ve insan hatası oranlarını izlemek ve azaltmak için kullanılabilecekleri anlamana da gelmektedir.

İkinci olarak, birçok yapay zeka sisteminin karmaşıklığı veya belirsizliği (özellikle makine öğrenimi uygulamalarında), sistem geliştiricileri de dahil olmak üzere, insanların sistemin işleyişini veya sonucunu anlamasını veya izlemesini zorlaştırabilmektedir. Sistemin yaşam döngüsü boyunca farklı aşamalarda birçok farklı aktörün katılımı dolayısıyla bu belirsizlik, potansiyel bir olumsuz sonuçtan sorumlu olan unsurların belirlenmesini daha da karmaşık hale getirerek insan sorumluluğunu ve hesap verebilirliği azaltmaktadır.

Üçüncüsü, bazı yapay zeka sistemleri geri bildirim ve pekiştirmeli öğrenme yoluyla kendilerini yeniden ayarlayabilmektedir. Bununla birlikte, bir yapay zeka sistemi, haksız önyargılar, hatalar, yanlışlıklar veya diğer eksiklikler içeren kendi kararlarından kaynaklanan veriler üzerinde yeniden eğitilirse, sistemin ayrımcı, hatalı veya kötü niyetli işleyişine yol açabilecek kısır bir geri bildirim döngüsü ortaya çıkabilmekte ve tespit edilmesi zorlaşabilmektedir.”

 

Çalışmanın orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da

 

Yapay Zeka Sistemlerinin Düzenlenmesine Doğru

 

Yapay Zeka Sistemlerinin Düzenlenmesine Doğru

 

CAHAI Secretariat
Aralık 2020

 

Özet

 

Başlık I- Uluslararası Bakış

Giriş, CAHAI tarafından Bakanlar Komitesi’ne sunulan mevcut raporu tanıtmakta ve COVID-19 pandemi önlemlerinin etkisini de dikkate alarak bugüne kadar kaydedilen ilerlemeyi detaylandırmaktadır. Ayrıca diğer ilgili paydaşlarla olan çalışma yöntemlerinin, birlikteliğin ve tamamlayıcılığın yansımalarını; aynı zamanda sağlam ve net bir yol haritasıyla CAHAI tarafından daha fazla aksiyon alınmasına yönelik önerileri içermektedir.

Bölüm 1, yapay zekanın insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki etkisini ana hatlarıyla açıklamaktadır. Avrupa İnsan Hakları Sözleşmesi (“AİHS”), Protokolleri ve Avrupa Sosyal Şartı (“ESC”) tarafından ortaya konduğu şekliyle, şu anda yapay zekadan en çok etkilenen veya etkilenmesi muhtemel olan insan haklarını ele almaktadır.

Bölüm 2, küresel olarak hükümet ve sivil toplum kuruluşları tarafından geliştirilen esnek hukuk dokumanlarının ve diğer etik-yasal çerçevelerin bir haritasını ortaya koymaktadır. İlk olarak, zorunlu olmayan yönetişim araçlarının sürekli gelişen bu yelpazesini izlenmek istemektedirler. İkinci olarak ise yapay zekanın etik ilkeler, insan hakları, hukukun üstünlüğü ve demokrasi üzerindeki etkisini ileriye dönük olarak değerlendirmek istemektedirler.

Bölüm 3, insan hakları, demokrasi ve hukukun üstünlüğü konusunda mevcut hukuk sisteminin uyumunu koruma yaklaşımıyla gelecekteki yapay zekâ düzenlemesinin hazırlanmasına katkı sunmayı ve bunu bağlayıcı enstrümanlar üzerine inşa ederek, bir bağlama oturtarak ve gelecekteki hukuk sistemi için temel düzenleyici ilkeler oluşturarak yapmayı amaçlamaktadır.

 

Orijinal dokumana aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://rm.coe.int/cahai-ai-regulation-publication-en/1680a0b8a4

Yapay Zeka Kullanımından Kaynaklı Ayrımcılığı Önleme

 

Yapay Zeka Kullanımından Kaynaklı Ayrımcılığı Önleme

 

Eşitlik ve Ayrımcılık Yapmama Komitesi
Raportör:  Christophe LACROIX, Belçika, 2020

 

Özet

Yapay zeka (YZ), otomatik karar verme süreçlerinin büyük ölçüde kalitesini artırarak verimlilik açısından fırsatlar yaratmaktadır – ancak buna paralel olarak, ayrımcılığı devam ettirebilmekte ve şiddetlendirebilmektedir. YZ’nin kamu ve özel sektör kullanımlarının ayrımcı bir etkiye sahip olduğu zaten göz önündeyken, bilgi akışı aşırılıkları ön planda tutma ve nefreti teşvik etme eğilimindedir. Önyargılı veri kümelerinin kullanımı, insan haklarını koruma ihtiyacına entegre olamayan tasarım, algoritmaların şeffaf olmaması ve etkileri bakımından hesap verebilirlik eksikliği ve yapay zeka ekiplerinde çeşitlilik eksikliği; hepsi bu olguya katkıda bulunmaktadır. 

Devletler, yapay zekanın toplumda ayrımcı bir etkiye sahip olmasını önlemek için harekete geçmeli ve bu alanda uluslararası standartlar geliştirmek için birlikte çalışmalıdır.

Parlamentolar ayrıca yapay zeka tabanlı teknolojilerin kullanımını denetlemede ve kamu denetimine tabi olmasını sağlamada aktif bir rol oynamalıdır. Ayrımcılıkla mücadelede yerel mevzuat gözden geçirilmeli ve YZ kullanımından kaynaklı ayrımcılığa uğrayan mağdurların etkili kanun yoluna erişimi sağlanmalı ve ulusal eşitlik kurumu, YZ tabanlı teknolojilerin etkileriyle başa çıkmak üzere donanımlı hale getirilmelidir.

Eşitliğe saygı ve ayrımcılık yapmama, en başından itibaren YZ tabanlı sistemlerin tasarımına entegre edilmeli ve kullanımdan önce test edilmelidir. Kamu ve özel sektör, teknoloji araştırmalarında ve mesleklerde çeşitliliği ve disiplinler arası yaklaşımları aktif bir şekilde teşvik etmelidir.

 

Raporun orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

doc.%2015151.pdf erişimi için tıklayın

Yapay Zeka ve Veri Koruması Üzerine Kılavuz İlkeler

 

Yapay Zeka ve Veri Koruması Üzerine Kılavuz İlkeler

25 Ocak 2019

 

Yapay Zeka[1](“YZ”) tabanlı sistemler, yazılımlar ve cihazlar (bundan sonra YZ uygulamaları olarak anılacaktır.) ihtiyaçları karşılamak ve akıllı evler, akıllı şehirler, sanayi sektörü, sağlık ve suçu önleme gibi çeşitli alanlardaki zorlukları ele almak için yeni ve değerli çözümler sunmaktadır. YZ uygulamaları, özellikle bulguya dayalı ve kapsayıcı politikaları desteklemek için karar vermede yararlı bir araç olabilir. Diğer teknolojik yeniliklerde olduğu gibi, bu uygulamaların bireyler ve toplum için olumsuz sonuçları olabilir. Bunu önlemek için, 108 nolu Sözleşme’nin tarafları, YZ’nin geliştirilmesi ve kullanılmasının gizlilik ve veri koruma haklarına (Avrupa İnsan Hakları Sözleşmesinin 8. Maddesi) saygılı olmasını sağlayacak ve  garanti edecek; böylece insan haklarını ve temel özgürlükleri genişletecektir.

Bu Kılavuz İlkeler, hükümetler, YZ geliştiricileri, üreticileri ve servis sağlayıcılarına, YZ uygulamalarının, özellikle veri koruma hakkı konusunda, her bireyin insan onurunu ve insan haklarını ve temel özgürlüklerini zedelememesini sağlamak için takip etmeleri gereken bir dizi temel önlem sunmaktadır.[2]

Bu Kılavuz İlkelerden hiçbiri, Avrupa İnsan Hakları Sözleşmesi ve 108 nolu Sözleşme’nin hükümlerini engelleyecek veya sınırlayacak şekilde yorumlanamaz. Bu Kılavuz İlkeler, aynı zamanda, modernize edilmiş 108 nolu Sözleşme’nin (daha çok “Sözleşme 108+” olarak anılmaktadır.) yeni güvencelerini de dikkate almaktadır.[3]

     

         I. Genel Kılavuz

  1. Bireyler ve toplum üzerinde sonuçları olabilecek YZ uygulamaları geliştirirken ve benimserken, insanlık onurunun korunması ve insan haklarının ve temel özgürlüklerin, özellikle kişisel verilerin korunması hakkının güvenceye alınması esastır. Bu, özellikle YZ uygulamaları karar alma süreçlerinde kullanıldığında önemlidir.
  2. Kişisel verilerin işlenmesine bağlı yapay zeka gelişimi, Sözleşme 108+ ilkelerine dayanmalıdır. Bu yaklaşımın ana unsurları: yasallık, adalet, amaç belirleme, veri işlemenin orantılılığı, tasarıma göre gizlilik ve varsayılan ayarlarla gizlilik, sorumluluk ve uygunluk gösterilmesi (hesap verebilirlik), şeffaflık, veri güvenliği ve risk yönetimidir.
  3. Kişisel verilerin işlenmesinin potansiyel risklerinden kaçınılması ve azaltılması üzerine odaklanan bir yaklaşım, YZ alanında sorumlu inovasyonun gerekli bir unsurudur.
  4. 2017’de 108 nolu Sözleşme Komitesi tarafından kabul edilen Büyük Veri Üzerine Kılavuz’da[4] sunulan risk değerlendirmesine uygun olarak, veri işlemenin olası sonuçlarına dair daha geniş bir bakış açısı benimsenmelidir. Bu görüş yalnızca insan haklarını ve temel özgürlükleri değil, aynı zamanda demokrasilerin işleyişini, sosyal ve etik değerleri de göz önünde bulundurmalıdır.
  5. YZ uygulamaları, özellikle Sözleşme 108+’nın 9’uncu maddesi ışığında, her zaman veri öznelerinin haklarına tamamıyla saygı göstermelidir.
  6. YZ uygulamaları, veri özneleri tarafından veri işleme ve bireyler ile toplum üzerindeki ilgili etkiler konusunda anlamlı kontrol sağlanmasına izin vermelidir.

   

         II. Geliştiriciler, Üreticiler ve Servis Sağlayıcılar İçin Kılavuz 

  1. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, ürün ve hizmetlerinin tasarımında, Sözleşme 108+’nın özellikle 10.2’inci maddesine ve Avrupa Konseyi’nin diğer ilgili araçlarına uygun olarak, değer odaklı bir yaklaşım benimsemelidir.
  2. YZ geliştiricileri, üreticileri ve servis sağlayıcıları YZ uygulamalarının insan hakları ve temel özgürlükler üzerindeki olası olumsuz sonuçlarını değerlendirmeli ve bu sonuçları göz önünde bulundurarak uygun risk önleme ve azaltma önlemlerine dayalı bir ihtiyatlı yaklaşım benimsemelidir.
  3. Veri toplama dahil, işlemenin tüm aşamalarında, YZ geliştiricileri, üreticileri ve servis sağlayıcıları insan hakları yanlısı tasarım yaklaşımı benimsemeli; ayrıca kasıtsız veya saklı olanlar dahil olası önyargılardan, ayrımcılık riskinden ya da insan hakları ve veri öznelerinin temel özgürlükleri üzerindeki diğer olumsuz etkilerden kaçınmalıdır.
  4. YZ geliştiricileri, kullanılan kişisel verilerin kalitesini, doğasını, kökenini ve miktarını, geliştirme sırasında gereksiz, ihtiyaç fazlası veya marjinal verileri azaltarak, eğiterek ve daha sonra modelin doğruluğunu yeni verilerle beslerken izleyerek, eleştirel olarak değerlendirmelidir. Sentetik verilerin kullanımı[5]YZ uygulamaları tarafından işlenen kişisel veri miktarını en aza indirmek için olası bir çözüm olarak düşünülebilir.
  5. Bağlamsız veriler[6]ve bağlamsız algoritmik modeller[7]nedeniyle bireyler ve toplum üzerindeki olumsuz etki riski YZ uygulamalarının geliştirilmesinde ve kullanımında yeterince dikkate alınmalıdır.
  6. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, çeşitli alanlardan bağımsız uzman komiteleri kurmaları ve onlara danışmaları, ayrıca insan hakları temelli, etik ve sosyal yönelimli YZ uygulamaları tasarlamaya katkıda bulunabilecek bağımsız akademik kurumlarla iletişim kurmaları ve potansiyel önyargıları tespit etmeleri konusunda teşvik edilmektedir. Bu tür komiteler, şeffaflık ve paydaş katılımının, öngörücü adalet, suçu önleme ve tespit alanlarında olduğu gibi yarışan çıkarlar ve haklar nedeniyle daha zor olabileceği alanlarda özellikle önemli bir rol oynayabilir.
  7. YZ uygulamalarından potansiyel olarak etkilenen bireylerin ve grupların aktif katılımına dayanan katılımcı risk değerlendirme biçimleri teşvik edilmelidir.
  8. Tüm ürün ve hizmetler, bireylerin, görüşlerini dikkate almayan, yalnızca otomatik işlemeye dayalı,  kendilerini önemli ölçüde etkileyen kararlara maruz kalmamalarını sağlayacak şekilde tasarlanmalıdır.
  9. Kullanıcıların güvenini artırmak için, YZ geliştiricilerinin, üreticilerinin ve servis sağlayıcılarının, YZ uygulamalarına makul alternatifler sunarak, kullanıcıların YZ hizmetlerine göre seçim yapma özgürlüğünü güvence altına alacak şekilde ürünlerini ve hizmetlerini tasarlamaları teşvik edilmektedir.
  10. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, veri koruması ve insan hakları hukuku ve ilkelerine uygunluğu sağlamak için, bu uygulamaların tüm yaşam döngüsü boyunca ilgili tüm paydaşların hesap verebilirliğini sağlayan bir algoritma dikkati modeli benimsemelidir.
  11. Bir YZ uygulamasıyla etkileşime girmeleri ve onlara uygulanan YZ veri işleme işlemlerinin gerekçeleri hakkında bilgi edinme hakları varsa veri öznelerine bilgi verilmelidir. Bu, böyle bir akıl yürütmenin sonuçlarını içermelidir.
  12. Bireylerin görüşlerini ve kişisel gelişimlerini etkileyen teknolojilere dayalı işlemelerle ilgili olarak itiraz etme hakkı sağlanmalıdır.

   

         III. Yasa ve Politika Yapıcılar İçin Kılavuz 

  1. Sorumluluk ilkesine saygı duyma, risk değerlendirme prosedürlerinin benimsenmesi ve davranış kuralları ve sertifikalandırma mekanizmaları gibi diğer uygun önlemlerin uygulanması, YZ ürünlerine ve hizmetlerine duyulan güveni artırabilir.
  2. Yasalarla korunan gizlilik önyargısı olmaksızın, kamu ihale prosedürleri, YZ geliştiricileri, üreticileri ve servis sağlayıcılarına özel şeffaflık görevleri, veri işlemenin insan hakları ve temel özgürlükler üzerindeki etkisinin önceden değerlendirmeyi ve YZ uygulamalarının olası olumsuz etkileri ve sonuçları (bundan böyle algoritma dikkati olarak anılacaktır) konusunda dikkatli olmaya zorlamalıdır.[8]
  3. Denetim otoritelerine YZ geliştiricileri, üreticileri ve servis sağlayıcılarının algoritma dikkat programlarını desteklemek ve izlemek için yeterli kaynak sağlanmalıdır.
  4. YZ uygulamaları tarafından sağlanan çözümlere aşırı güvenme ve YZ uygulamaları tarafından önerilen zorlu kararların korkusu, karar alma süreçlerinde insan müdahalesinin özerkliğini değiştirme riski taşımaktadır. Bu nedenle, karar alma süreçlerinde insan müdahalesinin rolü ve insani karar vericilerin YZ kullanarak sunulan önerilerin sonucuna güvenmeme özgürlüğü korunmalıdır.
  5. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, YZ uygulamaları insan haklarını ve veri öznelerinin temel özgürlüklerini önemli ölçüde etkileme potansiyeline sahip olduğunda denetim otoritelerine danışmalıdır.
  6. Veri koruması denetleme makamları ve YZ ile ilgili yeterliliği olan diğer organlar arasında iş birliği teşvik edilmelidir, örneğin: tüketicinin korunması; rekabet; ayrımcılıkla mücadele; sektör düzenleyicileri ve medya düzenleyici makamları.
  7. Bölüm II.6’da belirtilen uzman komitelerinin bağımsızlığını sağlamak için uygun mekanizmalar uygulanmalıdır.
  8. Bireyler, gruplar ve diğer paydaşlar bilgilendirilmeli ve YZ’nin sosyal dinamikleri şekillendirmede ve onları etkileyen karar alma süreçlerinde oynayacakları rolün tartışılmasında aktif olarak yer almalıdır.
  9. Politika yapıcılar, veri öznelerinin YZ uygulamalarını ve etkilerini anlama konusundaki farkındalıklarını ve anlayışlarını artırmak için dijital okuryazarlık ve eğitim kaynaklarına yatırım yapmalılar. Ayrıca, YZ geliştiricileri için YZ’nin bireyler ve toplum üzerindeki potansiyel etkileri konusunda farkındalık ve anlayış geliştirmede mesleki eğitimi teşvik etmeliler. İnsan hakları odaklı YZ araştırmalarını desteklemeliler.

 

[1] Aşağıdaki YZ tanımına Avrupa Konseyi’nin https://www.coe.int/en/web/human-rights-rule-of-law/artificial-intelligence/glossary adresinden erişilebilir: “Amacı, bir insanın bilişsel yeteneklerini bir makine tarafından üretmek olan bir dizi bilim, teori ve teknik. Örneğin mevcut gelişmeler, bir makineye daha önce bir insana devredilen karmaşık görevleri vermeyi hedefliyor.”

[2] Bu Kılavuz İlkeler şu adresteki Yapay Zeka Raporu’nu (“Yapay Zeka ve Veri Koruma: Zorluklar ve Muhtemel Çözümler”) izlemekte ve geliştirmektedir: https://rm.coe.int/artificial-intelligence-and-data-protection-challenges- ve-muhtemel-re / 168091f8a6

[3] Kişisel Verilerin Otomatik Olarak İşlenmesine İlişkin Bireylerin Korunması Sözleşmesi 223 nolu Protokolün değiştirilmesi.

[4] https://rm.coe.int/t-pd-2017-1-bigdataguidelines-en/16806f06d0

[5] Sentetik veriler, gerçek veriler üzerine kurulmuş bir veri modelinden üretilir. Orijinal gerçek verileri temsil etmelidirler. OECD’deki sentetik verinin tanımına bakınız. İstatistiksel Terimler Sözlüğü, 2007. http://ec.europa.eu/eurostat/ramon/coded_files/OECD_glossary_stat_terms.pdf(“Gerçek verileri yaymak yerine, bir veya daha fazla topluluk modelinden üretilmiş sentetik verilerin yayınlandığı gizlilik yaklaşımı”).

[6] Bu, önerilen YZ tabanlı çözümlerin kullanılması gereken belirli durumları karakterize eden bağlamsal bilgileri göz ardı etme riskidir.

[7] Bu, başlangıçta belirli bir uygulama için tasarlanmış YZ modelleri farklı bir bağlamda veya farklı amaçlar için kullanıldığında olur.

[8] Hesap verebilirliğin benimsenmesi, bu uygulamaların tüm yaşam döngüsü boyunca potansiyel olumsuz etki ve sonuçlarıyla ilgili farkındalık ve risk yönetimi uygulamalarının benimsenmesi konusunda 40. Uluslararası Veri Koruma Konferansı, Yapay Zekada Etik ve Veri Koruma Bildirimi, kılavuz ilke no.2.  Ayrıca bkz. Yapay Zeka Raporu (dipnot 2), Bölüm II.4.

 

Kılavuzun orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8