Yapay Zeka Fizibilite Çalışması

 

Yapay Zeka Fizibilite Çalışması

 

Avrupa Konseyi

Yapay Zeka Ad Hoc Komitesi

2020

Giriş

“Yakın zamanda Parlamenterler Meclisi (PACE) tarafından kabul edilen raporlar da dahil olmak üzere, çeşitli Avrupa Konseyi belgelerinde belirtildiği gibi, yapay zeka sistemleri bireylerin yaşamını büyük ölçüde dönüştürmekte ve toplumun yapısı ve kurumlarının işleyişi üzerinde derinlemesine bir etkiye sahip olmaktadır. Kullanımları sağlık, ulaşım, eğitim ve kamu yönetimi gibi çok sayıda alanda önemli faydalar sağlama potansiyeline sahiptir ve genel itibariyle insanlık için umut verici fırsatlar oluşturmaktadır. Bunun yanında, yapay zeka sistemlerinin geliştirilmesi ve kullanımı, özellikle Avrupa toplumunun üzerine inşa edildiği temel unsurlar olan insan hakları, demokrasi ve hukukun üstünlüğüne müdahale konusunda önemli riskleri de beraberinde getirmektedir.

Yapay zeka sistemleri, etkisi yalnızca tasarımına bağlı olmayan, aynı zamanda kullanılan veriler, güdülen amaçlar, işlevsellik ve doğruluk, dağıtım ölçeği ve kullanıldığı daha geniş kurumsal, toplumsal ve yasal bağlam dolayısıyla “sosyo-teknik sistemler” olarak görülmelidir. Yapay zeka sistemlerinin olumlu veya olumsuz sonuçları aynı zamanda onları geliştiren ve kullanan insanların değerlerine ve davranışlarına da bağlıdır, bu da insan sorumluluğunun sağlanmasının önemine yol açmaktadır. Bununla birlikte, yapay zeka sistemlerinin, insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki olumlu ve olumsuz etkileri açısından onları diğer teknolojilerden ayıran bazı farklı özellikleri vardır.

İlk olarak, yapay zeka sistemlerinin ölçeği, bağlılığı ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri artırabilmektedir. Yapay zeka sistemleri, insanlardan çok daha hızlı bir şekilde, benzeri görülmemiş miktarda ayrıntılı veriyi (son derece hassas kişisel veriler dahil) analiz edebilmektedir. Bu yetenek, yapay zeka sistemlerinin, “proxy discrimination ” olarak adlandırılan durumlarda yeni ayrımcılık temellerine dayalı olarak, haksız önyargıyı devam ettirecek veya artıracak şekilde kullanılmasına yol açabilmektedir. Makine öğrenimi bağlamında bu ayrımcılığın artan önemi, doğrudan ve dolaylı ayrımcılık arasındaki farkın veya aslında, geleneksel olarak anlaşıldığı şekliyle, bu farkın uygunluğuna ilişkin yoruma dayalı soruları ortaya çıkarabilmektedir. Ayrıca, yapay zeka sistemleri istatistiksel hata oranlarına sahiptir. Milyonlarca insana uygulanan bir sistemin hata oranı sıfıra yakın olsa bile, sistemlerin dağıtım ölçeği ve birbirine bağlanabilirliği nedeniyle binlerce kişi yine de olumsuz etkilenebilmektedir. Öte yandan, yapay zeka sistemlerinin ölçeği ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri ve önyargıları azaltmak ve insan hatası oranlarını izlemek ve azaltmak için kullanılabilecekleri anlamana da gelmektedir.

İkinci olarak, birçok yapay zeka sisteminin karmaşıklığı veya belirsizliği (özellikle makine öğrenimi uygulamalarında), sistem geliştiricileri de dahil olmak üzere, insanların sistemin işleyişini veya sonucunu anlamasını veya izlemesini zorlaştırabilmektedir. Sistemin yaşam döngüsü boyunca farklı aşamalarda birçok farklı aktörün katılımı dolayısıyla bu belirsizlik, potansiyel bir olumsuz sonuçtan sorumlu olan unsurların belirlenmesini daha da karmaşık hale getirerek insan sorumluluğunu ve hesap verebilirliği azaltmaktadır.

Üçüncüsü, bazı yapay zeka sistemleri geri bildirim ve pekiştirmeli öğrenme yoluyla kendilerini yeniden ayarlayabilmektedir. Bununla birlikte, bir yapay zeka sistemi, haksız önyargılar, hatalar, yanlışlıklar veya diğer eksiklikler içeren kendi kararlarından kaynaklanan veriler üzerinde yeniden eğitilirse, sistemin ayrımcı, hatalı veya kötü niyetli işleyişine yol açabilecek kısır bir geri bildirim döngüsü ortaya çıkabilmekte ve tespit edilmesi zorlaşabilmektedir.”

 

Çalışmanın orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da

 

Yapay Zeka Kullanımından Kaynaklı Ayrımcılığı Önleme

 

Yapay Zeka Kullanımından Kaynaklı Ayrımcılığı Önleme

 

Eşitlik ve Ayrımcılık Yapmama Komitesi
Raportör:  Christophe LACROIX, Belçika, 2020

 

Özet

Yapay zeka (YZ), otomatik karar verme süreçlerinin büyük ölçüde kalitesini artırarak verimlilik açısından fırsatlar yaratmaktadır – ancak buna paralel olarak, ayrımcılığı devam ettirebilmekte ve şiddetlendirebilmektedir. YZ’nin kamu ve özel sektör kullanımlarının ayrımcı bir etkiye sahip olduğu zaten göz önündeyken, bilgi akışı aşırılıkları ön planda tutma ve nefreti teşvik etme eğilimindedir. Önyargılı veri kümelerinin kullanımı, insan haklarını koruma ihtiyacına entegre olamayan tasarım, algoritmaların şeffaf olmaması ve etkileri bakımından hesap verebilirlik eksikliği ve yapay zeka ekiplerinde çeşitlilik eksikliği; hepsi bu olguya katkıda bulunmaktadır. 

Devletler, yapay zekanın toplumda ayrımcı bir etkiye sahip olmasını önlemek için harekete geçmeli ve bu alanda uluslararası standartlar geliştirmek için birlikte çalışmalıdır.

Parlamentolar ayrıca yapay zeka tabanlı teknolojilerin kullanımını denetlemede ve kamu denetimine tabi olmasını sağlamada aktif bir rol oynamalıdır. Ayrımcılıkla mücadelede yerel mevzuat gözden geçirilmeli ve YZ kullanımından kaynaklı ayrımcılığa uğrayan mağdurların etkili kanun yoluna erişimi sağlanmalı ve ulusal eşitlik kurumu, YZ tabanlı teknolojilerin etkileriyle başa çıkmak üzere donanımlı hale getirilmelidir.

Eşitliğe saygı ve ayrımcılık yapmama, en başından itibaren YZ tabanlı sistemlerin tasarımına entegre edilmeli ve kullanımdan önce test edilmelidir. Kamu ve özel sektör, teknoloji araştırmalarında ve mesleklerde çeşitliliği ve disiplinler arası yaklaşımları aktif bir şekilde teşvik etmelidir.

 

Raporun orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

doc.%2015151.pdf erişimi için tıklayın