Ayrımcılık Yapan Sistemler – Yapay Zekada Cinsiyet, Irk ve Güç

 

Ayrımcılık Yapan Sistemler – Yapay Zekada Cinsiyet, Irk ve Güç

 

Sarah Myers West, AI Now Enstitüsü, New York Üniversitesi

Meredith Whittaker, AI Now Enstitüsü, New York Üniversitesi, Google Open Research

Kate Crawford, AI Now Enstitüsü, New York Üniversitesi, Microsoft Research

Nisan 2019

 

Araştırma Bulguları

YZ sektöründe cinsiyet ve ırk arasında bir çeşitlilik krizi söz konusudur. Son araştırmalar, önde gelen YZ konferanslarında yazarların sadece % 18’inin kadın1 ve YZ profesörlerinin % 80’inden fazlasının ise erkek 2olduğunu gösteriyor. YZ endüstrisindeki 3bu eşitsizlik ise daha da fazladır: kadınlar Facebook’ta YZ araştırma personelinin sadece% 15’ini ve Google’da ise % 10’unu oluşturmaktadır. Siyahi işçiler için ise tablo daha da kötü durumdadır. Örneğin, Google’ın işgücünün yalnızca % 2,5’i siyahi iken, Facebook ve Microsoft ise bu sayı % 4’tedir. Bu dengesizliği gidermek için yıllarca süren çaba ve yatırım göz önüne alındığında, alanın mevcut durumu endişe vericidir.

YZ sektörünün mevcut çeşitlilik krizini ele alışında derin bir değişim ihtiyacı hasıl olmuştur. YZ endüstrisinin çeşitlilik probleminin ciddiyetini, mevcut metodların gücün dengesiz dağılışı ile mücadele edemediğini, ayrıca YZ’nin bu eşitsizliği güçlendirdiğini kabul etmesi gerekir. Ayrıca, birçok araştırmacı YZ sistemlerindeki önyargıların tarihsel ayrımcılık kalıplarını yansıttığını göstermiştir. Bunlar aynı sorunun iki tezahürüdür ve birlikte ele alınmaları gerekir.

“Teknikte kadınlara” olan yoğun odaklanma çok dar ve beyaz kadınları diğerlerinden daha ayrıcalıklı kılmaktadır. Irk, cinsiyet ve diğer kimlik ve niteliklerin kesişme noktalarının insanların YZ ile olan deneyimlerini nasıl şekillendirdiğini bilmemiz gerekir. YZ çalışmalarının büyük çoğunluğu cinsiyetin ikili olduğunu varsayar ve genel olarak diğer tüm toplumsal cinsiyet kimliği biçimlerini silerek, fiziksel görünüme ve basmakalıp varsayımlara dayanarak insanları “erkek” veya “kadın” olarak atar.

“Algoritma akışını“ düzeltmek, YZ’nin çeşitlilik sorunlarını çözmez. Farklı meslekten adayların okuldan sektöre akışını değerlendiren onlarca yıllık “algoritma akışı çalışmaları”na rağmen, YZ endüstrisindeki çeşitlilik konusunda önemli bir ilerleme olmamıştır. Algoritma akışına odaklanma; işyeri kültürleri, güç asimetrileri, taciz, dışlayıcı işe alım uygulamaları, haksız tazminat ve insanların YZ sektöründen tamamen uzaklaşmasına veya çalışmalarını engellemesine neden olan belirtkeleme ile ilgili daha derin sorunları ele almamıştır.

YZ sistemlerinin, ırk ve cinsiyetin sınıflandırılması, tespiti ve öngörülmesindeki kullanımı, acil olarak yeniden değerlendirmeye ihtiyaç duymaktadır. “Irk bilimi”nin geçmişi, dış görünüşe dayalı ırk ve cinsiyet sınıflandırmasının bilimsel olarak kusurlu olduğuna ve kolayca kötüye kullanıldığına dair acımasız bir hatırlatıcıdır. Fiziksel görünüşü karakter veya içsel durumlar için bir vekil olarak kullanan sistemler, vesikalık fotoğraftan4 cinsiyeti belirlediğini, yüz özelliklerine dayanarak “suçluyu” öngördüğünü5 veya “mikro ifadeler” ile işçi yeterliliğini değerlendirdiğini 6iddia eden YZ araçları da dahil olmak üzere tüm bunlara kuşkuyla bakmak gerekir. Bu tür sistemler tarihsel eşitsizliği derinleştirecek ve haklı gösterebilecek şekilde ülkedeki ırk ve cinsiyet yanlılığı modellerini tekrarlamaktadır. Bu araçların ticari konuşlandırılması ise derin bir endişe kaynağıdır.

 

Raporun orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://ainowinstitute.org/discriminatingsystems.pdf

  1. Element AI. (2019). Global AI Talent Report 2019. Retrieved from https://jfgagne.ai/talent-2019/
  2. . AI Index 2018. (2018). Artificial Intelligence Index 2018. Retrieved from http://cdn.aiindex.org/2018/AI%20Index%202018%20Annual%20Report.pdf
  3. Simonite, T. (2018). AI is the future – but where are the women? WIRED. Retrieved from https://www.wired.com/story/artificial-intelligenceresearchers-gender-imbalance/.
  4. Wang, Y., & Kosinski, M. (2017). Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of
    Personality and Social Psychology.
  5. Wu, X. and Zhang, X. (2016). Automated Inference on Criminality using Face Images. Retrieved from https://arxiv.org/pdf/1611.04135v2.pdf.
  6. Rhue, L. (2018). Racial Influence on Automated Perceptions of Emotions. Retrieved from https://papers.ssrn.com/sol3/papers.cfm?abstract_
    id=3281765

2012 yılında Japonca eğitimim sonrasında hukuk fakültesine başladı. Jürging-Örkün-Putzar Rechtsanwalte (Almanya), Güler Hukuk Bürosu ve Ünsal & Gündüz Attorneys at Law' da staj yaptı. Japon dili sertifikası aldı. Ayrıca arabuluculuk- tahkim ve ceza hukuku gibi alanlarda sertifika programlarına katıldı.Bunların akabinde Bilişim ve Teknoloji Hukuku alanında yüksek lisans yapmaya başladı. Köksal & Partners hukuk bürosunda avukat olarak çalışmakta. Büyük bir merakla, robotlar, yapay zeka ve onların hukuksal durumları ve problemler ile ilgili çalışmalar yürütmekte. She studied law following herJapanese education on 2012. She fulfilled her internships in Jurging-Orkun-Putzar Rechtsanwalte(Germany), Guler Law Office and Unsal&Gunduz Attorney at Law . Also she has certificate of Japanese language and she has mediation and arbitration certificates and criminal law certificates from law workshops. Afterwards, she started the master program on information and technology law, at Istanbul Bilgi University. She works as a lawyer at Koksal & Partners law office. Her goal and ambition is the working in the field of Robotics, AI and their legal statutes and problems and exploring the relevant necessities where no women has ever gone before... Yazarın diğer yazıları için ayrıca bakınız: For further works of the author: https://bilgi.academia.edu/Selin%C3%87etin https://siberbulten.com/author/selin-cetin/

Bir cevap yazın

*