Yapay Zeka Fizibilite Çalışması
Avrupa Konseyi
Yapay Zeka Ad Hoc Komitesi
2020
Giriş
“Yakın zamanda Parlamenterler Meclisi (PACE) tarafından kabul edilen raporlar da dahil olmak üzere, çeşitli Avrupa Konseyi belgelerinde belirtildiği gibi, yapay zeka sistemleri bireylerin yaşamını büyük ölçüde dönüştürmekte ve toplumun yapısı ve kurumlarının işleyişi üzerinde derinlemesine bir etkiye sahip olmaktadır. Kullanımları sağlık, ulaşım, eğitim ve kamu yönetimi gibi çok sayıda alanda önemli faydalar sağlama potansiyeline sahiptir ve genel itibariyle insanlık için umut verici fırsatlar oluşturmaktadır. Bunun yanında, yapay zeka sistemlerinin geliştirilmesi ve kullanımı, özellikle Avrupa toplumunun üzerine inşa edildiği temel unsurlar olan insan hakları, demokrasi ve hukukun üstünlüğüne müdahale konusunda önemli riskleri de beraberinde getirmektedir.
Yapay zeka sistemleri, etkisi yalnızca tasarımına bağlı olmayan, aynı zamanda kullanılan veriler, güdülen amaçlar, işlevsellik ve doğruluk, dağıtım ölçeği ve kullanıldığı daha geniş kurumsal, toplumsal ve yasal bağlam dolayısıyla “sosyo-teknik sistemler” olarak görülmelidir. Yapay zeka sistemlerinin olumlu veya olumsuz sonuçları aynı zamanda onları geliştiren ve kullanan insanların değerlerine ve davranışlarına da bağlıdır, bu da insan sorumluluğunun sağlanmasının önemine yol açmaktadır. Bununla birlikte, yapay zeka sistemlerinin, insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki olumlu ve olumsuz etkileri açısından onları diğer teknolojilerden ayıran bazı farklı özellikleri vardır.
İlk olarak, yapay zeka sistemlerinin ölçeği, bağlılığı ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri artırabilmektedir. Yapay zeka sistemleri, insanlardan çok daha hızlı bir şekilde, benzeri görülmemiş miktarda ayrıntılı veriyi (son derece hassas kişisel veriler dahil) analiz edebilmektedir. Bu yetenek, yapay zeka sistemlerinin, “proxy discrimination ” olarak adlandırılan durumlarda yeni ayrımcılık temellerine dayalı olarak, haksız önyargıyı devam ettirecek veya artıracak şekilde kullanılmasına yol açabilmektedir. Makine öğrenimi bağlamında bu ayrımcılığın artan önemi, doğrudan ve dolaylı ayrımcılık arasındaki farkın veya aslında, geleneksel olarak anlaşıldığı şekliyle, bu farkın uygunluğuna ilişkin yoruma dayalı soruları ortaya çıkarabilmektedir. Ayrıca, yapay zeka sistemleri istatistiksel hata oranlarına sahiptir. Milyonlarca insana uygulanan bir sistemin hata oranı sıfıra yakın olsa bile, sistemlerin dağıtım ölçeği ve birbirine bağlanabilirliği nedeniyle binlerce kişi yine de olumsuz etkilenebilmektedir. Öte yandan, yapay zeka sistemlerinin ölçeği ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri ve önyargıları azaltmak ve insan hatası oranlarını izlemek ve azaltmak için kullanılabilecekleri anlamana da gelmektedir.
İkinci olarak, birçok yapay zeka sisteminin karmaşıklığı veya belirsizliği (özellikle makine öğrenimi uygulamalarında), sistem geliştiricileri de dahil olmak üzere, insanların sistemin işleyişini veya sonucunu anlamasını veya izlemesini zorlaştırabilmektedir. Sistemin yaşam döngüsü boyunca farklı aşamalarda birçok farklı aktörün katılımı dolayısıyla bu belirsizlik, potansiyel bir olumsuz sonuçtan sorumlu olan unsurların belirlenmesini daha da karmaşık hale getirerek insan sorumluluğunu ve hesap verebilirliği azaltmaktadır.
Üçüncüsü, bazı yapay zeka sistemleri geri bildirim ve pekiştirmeli öğrenme yoluyla kendilerini yeniden ayarlayabilmektedir. Bununla birlikte, bir yapay zeka sistemi, haksız önyargılar, hatalar, yanlışlıklar veya diğer eksiklikler içeren kendi kararlarından kaynaklanan veriler üzerinde yeniden eğitilirse, sistemin ayrımcı, hatalı veya kötü niyetli işleyişine yol açabilecek kısır bir geri bildirim döngüsü ortaya çıkabilmekte ve tespit edilmesi zorlaşabilmektedir.”
Çalışmanın orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:
https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da