robotic.legal
Selin Çetin

Ayrımcılık Yapan Sistemler – Yapay Zekada Cinsiyet, Irk ve Güç

0 671

 

Ayrımcılık Yapan Sistemler – Yapay Zekada Cinsiyet, Irk ve Güç

 

Sarah Myers West, AI Now Enstitüsü, New York Üniversitesi

Meredith Whittaker, AI Now Enstitüsü, New York Üniversitesi, Google Open Research

Kate Crawford, AI Now Enstitüsü, New York Üniversitesi, Microsoft Research

Nisan 2019

 

Araştırma Bulguları

YZ sektöründe cinsiyet ve ırk arasında bir çeşitlilik krizi söz konusudur. Son araştırmalar, önde gelen YZ konferanslarında yazarların sadece % 18’inin kadın1 ve YZ profesörlerinin % 80’inden fazlasının ise erkek 2olduğunu gösteriyor. YZ endüstrisindeki 3bu eşitsizlik ise daha da fazladır: kadınlar Facebook’ta YZ araştırma personelinin sadece% 15’ini ve Google’da ise % 10’unu oluşturmaktadır. Siyahi işçiler için ise tablo daha da kötü durumdadır. Örneğin, Google’ın işgücünün yalnızca % 2,5’i siyahi iken, Facebook ve Microsoft ise bu sayı % 4’tedir. Bu dengesizliği gidermek için yıllarca süren çaba ve yatırım göz önüne alındığında, alanın mevcut durumu endişe vericidir.

YZ sektörünün mevcut çeşitlilik krizini ele alışında derin bir değişim ihtiyacı hasıl olmuştur. YZ endüstrisinin çeşitlilik probleminin ciddiyetini, mevcut metodların gücün dengesiz dağılışı ile mücadele edemediğini, ayrıca YZ’nin bu eşitsizliği güçlendirdiğini kabul etmesi gerekir. Ayrıca, birçok araştırmacı YZ sistemlerindeki önyargıların tarihsel ayrımcılık kalıplarını yansıttığını göstermiştir. Bunlar aynı sorunun iki tezahürüdür ve birlikte ele alınmaları gerekir.

“Teknikte kadınlara” olan yoğun odaklanma çok dar ve beyaz kadınları diğerlerinden daha ayrıcalıklı kılmaktadır. Irk, cinsiyet ve diğer kimlik ve niteliklerin kesişme noktalarının insanların YZ ile olan deneyimlerini nasıl şekillendirdiğini bilmemiz gerekir. YZ çalışmalarının büyük çoğunluğu cinsiyetin ikili olduğunu varsayar ve genel olarak diğer tüm toplumsal cinsiyet kimliği biçimlerini silerek, fiziksel görünüme ve basmakalıp varsayımlara dayanarak insanları “erkek” veya “kadın” olarak atar.

Algoritma akışını“ düzeltmek, YZ’nin çeşitlilik sorunlarını çözmez. Farklı meslekten adayların okuldan sektöre akışını değerlendiren onlarca yıllık “algoritma akışı çalışmaları”na rağmen, YZ endüstrisindeki çeşitlilik konusunda önemli bir ilerleme olmamıştır. Algoritma akışına odaklanma; işyeri kültürleri, güç asimetrileri, taciz, dışlayıcı işe alım uygulamaları, haksız tazminat ve insanların YZ sektöründen tamamen uzaklaşmasına veya çalışmalarını engellemesine neden olan belirtkeleme ile ilgili daha derin sorunları ele almamıştır.

YZ sistemlerinin, ırk ve cinsiyetin sınıflandırılması, tespiti ve öngörülmesindeki kullanımı, acil olarak yeniden değerlendirmeye ihtiyaç duymaktadır. “Irk bilimi”nin geçmişi, dış görünüşe dayalı ırk ve cinsiyet sınıflandırmasının bilimsel olarak kusurlu olduğuna ve kolayca kötüye kullanıldığına dair acımasız bir hatırlatıcıdır. Fiziksel görünüşü karakter veya içsel durumlar için bir vekil olarak kullanan sistemler, vesikalık fotoğraftan4 cinsiyeti belirlediğini, yüz özelliklerine dayanarak “suçluyu” öngördüğünü5 veya “mikro ifadeler” ile işçi yeterliliğini değerlendirdiğini 6iddia eden YZ araçları da dahil olmak üzere tüm bunlara kuşkuyla bakmak gerekir. Bu tür sistemler tarihsel eşitsizliği derinleştirecek ve haklı gösterebilecek şekilde ülkedeki ırk ve cinsiyet yanlılığı modellerini tekrarlamaktadır. Bu araçların ticari konuşlandırılması ise derin bir endişe kaynağıdır.

 

Raporun orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://ainowinstitute.org/discriminatingsystems.pdf

  1. Element AI. (2019). Global AI Talent Report 2019. Retrieved from https://jfgagne.ai/talent-2019/
  2. . AI Index 2018. (2018). Artificial Intelligence Index 2018. Retrieved from http://cdn.aiindex.org/2018/AI%20Index%202018%20Annual%20Report.pdf
  3. Simonite, T. (2018). AI is the future – but where are the women? WIRED. Retrieved from https://www.wired.com/story/artificial-intelligenceresearchers-gender-imbalance/.
  4. Wang, Y., & Kosinski, M. (2017). Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of
    Personality and Social Psychology.
  5. Wu, X. and Zhang, X. (2016). Automated Inference on Criminality using Face Images. Retrieved from https://arxiv.org/pdf/1611.04135v2.pdf.
  6. Rhue, L. (2018). Racial Influence on Automated Perceptions of Emotions. Retrieved from https://papers.ssrn.com/sol3/papers.cfm?abstract_
    id=3281765
Bunları da beğenebilirsin
Haber Bülenimize Abone Olun
Eklenmiş yazılardan ilk siz haberdar olmak istiyorsanız bültenimize abone olun.
İstediğiniz zaman abonelikten çıkabilirsiniz.