Güvenilir YZ için Değerlendirme Listesi

 

Güvenilir Yapay Zeka için Değerlendirme Listesi

 

European AI Alliance | FUTURIUM | European Commission

AB Komisyonu

YZ Üst Düzey Uzman Grubu

Ağustos 2020

 

Temel Haklar

Temel haklar, insan onuru ve ayrımcılık yasağı gibi hakların yanı sıra birkaç örnek vermek gerekirse veri koruma ve mahremiyetle ilgili hakları da kapsamaktadır. Bu Değerlendirme Listesi ile bir YZ sisteminin öz değerlendirmesi yapılmadan önce, temel haklar etki değerlendirmesi (FRIA) yapılmalıdır.

Bir FRIA Avrupa İnsan Hakları Sözleşmesi (AİHS), protokolleri ve Avrupa Sosyal Şartı ve Şart’taki belirli maddelere ilişkin sorular içerebilir.

1.YZ sistemi, aşağıdaki hususlardan herhangi birine (kapsamlı olmayan şekilde) dayanarak insanlara karşı potansiyel olarak olumsuz ayrımcılık yapıyor mu: cinsiyet, ırk, renk, etnik veya sosyal köken, genetik özellikler, dil, din veya inanç, siyasi veya başka herhangi bir görüş, ulusal bir azınlığa üyelik, mülkiyet, doğum, engellilik, yaş veya cinsel yönelim?

YZ sisteminin geliştirme, devreye alma ve kullanım aşamaları sırasında olası olumsuz ayrımcılığı (önyargı) test etmek ve izlemek için süreçler oluşturdunuz mu?

YZ sistemindeki olası olumsuz ayrımcılığı (önyargı) ele almak ve düzeltmek için süreçler oluşturdunuz mu?

2.YZ sistemi çocuk haklarına saygı duyuyor mu, örneğin çocuğun korunması ve çocuğun yüksek yararını dikkate alınıyor mu?

YZ sistemi tarafından çocuklara verilen olası zararı ele almak ve düzeltmek için süreçler oluşturdunuz mu?

YZ sisteminin geliştirilmesi, devreye alınması ve kullanılması aşamalarında çocuklara verilecek olası zararları test etmek ve izlemek için süreçler oluşturdunuz mu?

3.YZ sistemi, bireylerle ilgili kişisel verileri GDPR uyarınca koruyor mu?

Veri koruma etki değerlendirmesine duyulan ihtiyacı ayrıntılı olarak değerlendirmek için bunların amaçlarına göre işleme operasyonlarının gerekliliği ve orantılılığının bir değerlendirmesi dahil, YZ sisteminin geliştirme, devreye alma ve kullanım aşamaları ile ilgili süreçler oluşturdunuz mu?

YZ sisteminin geliştirme, devreye alma ve kullanım aşamalarıyla ilgili olarak, kişisel verilerin korunmasını sağlamak için koruma önlemleri, güvenlik önlemleri ve mekanizmalar dahil olmak üzere riskleri ele almak adına öngörülen önlemleri uygulamaya koydunuz mu?

4.YZ sistemi ifade ve bilgi edinme özgürlüğüne ve / veya toplantı ve dernek kurma özgürlüğüne saygı duyuyor mu?

Yapay zeka sisteminin geliştirme, devreye alma ve kullanım aşamalarında ifade ve bilgi edinme özgürlüğü ve / veya toplantı ve dernek kurma özgürlüğüne yönelik olası ihlalleri test etmek ve izlemek için süreçler oluşturdunuz mu?

Yapay zeka sisteminde ifade ve bilgi edinme özgürlüğü ve / veya toplantı ve dernek kurma özgürlüğüne yönelik olası ihlalleri ele almak ve düzeltmek için süreçler oluşturdunuz mu?

 

Dokümanın orijinalini aşağıdaki bağlantı adresinden bulabilirsiniz:

https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=68342

 

Sorumlu Botlar: Etkileşimli Yapay Zeka Geliştiricileri için 10 Öneri

Sorumlu Botlar: Etkileşimli Yapay Zeka Geliştiricileri için 10 Öneri

Öneriler

  1. Botunuzun amacını tek tek belirtin ve botunuzun sonuçta ortaya çıkacak kullanım durumlarını destekleyip desteklemeyeceğine özellikle dikkat gösterin.

Botunuzun amacı etik tasarımın merkezindedir ve etik tasarım, geliştirmekte olduğunuz botun kullanıma sunulmasında özellikle önemlidir. Sonuç olarak ortaya çıkan kullanım durumları arasında sağlık hizmetleri, eğitim, istihdam, finansman ya da bireyin günlük hayatı üzerinde anlamlı ve önemli bir etkisi olacak hizmetlere erişim bulunmaktadır.

  1. Botları ürününüzün veya hizmetinizin bir parçası olarak kullandığınızda şeffaflığa önem verin.

Kullanıcılar, bot teknolojisini kullanımıyla ilgili şeffaf ve açık bir şirkete güvenir ve botun onların ihtiyaçlarını karşılamak için çalıştığını ve sınırları konusunda net olduğunu anladığında bir botun güvenilirliği daha olasıdır.

  1. İnsan-bot değişiminde, botun yetkinliğini aşan etkileşimlere girmesi durumunda sistem yönetiminin bir insana sorunsuz şekilde geçmesini sağlayın.

Botunuz insan kararı gerektirebilecek etkileşimlere girerse, bu noktada bir insan moderatöre sisteme müdahil olması için bir araç veya kolay erişim sağlayın.

  1. Botunuzu ilgili kültürel normlara saygı gösterecek ve yanlış kullanıma karşı korunacak şekilde tasarlayın.

Botların insan benzeri tutumları olabileceğinden, kullanıcılarla saygılı ve güvenli bir şekilde etkileşimde bulunması; yanlış ve kötüye kullanımı ele alan yerleşik güvenlik önlemlerine ve protokollere sahip olması özellikle önemlidir.

  1. Botunuzun güvenilir olduğundan emin olun.

Botunuzun gerçekleştirmeyi amaçladığı işlev için yeterince güvenilir olduğundan emin olun ve YZ sistemleri olasılıksal olduğundan her zaman doğru cevabı vermeyeceklerini daima göz önünde bulundurun.

  1. Botunuzun insanlara adil davrandığından emin olun.

YZ tabanlı sistemlerin mevcut toplumsal önyargıları sürdürme veya yeni önyargı oluşturma olasılığı, YZ’nin hızlı yaygınlaşması ile ilgili olarak belirlenen en önemli endişelerden biridir. Geliştirme ekipleri, botların tüm insanlara adil davranmasını sağlama konusuna dikkat etmelidir.

  1. Botunuzun kullanıcı gizliliğine saygı gösterdiğinden emin olun.

Gizlilikle ilgili hususlar botlar için özellikle önemlidir. İnsanlar, botlarla etkileşime geçtiğinde kendileri hakkında daha fazla bilgi paylaşabilirler. Ve elbette, botlar her şeyi hatırlayabilir. Tüm bunlar (ayrıca yasal gereksinimler), kullanıcı gizliliğine saygı gösterilmesi amacıyla botları bu temelde tasarlamanızı özellikle önemli hale getirir. Bu, botların nasıl çalıştığı ve botun kullanıcılara kişisel verileri üzerinde ne tür kontroller sunduğu da dahil olmak üzere botların veri toplama ve kullanımına yeterli şeffaflık kazandırmayı içerir.

  1. Botunuzun verileri güvenli bir şekilde işlediğinden emin olun.

Kullanıcılar, verilerinin güvenli bir şekilde işlenmesini bekleme hakkına sahiptir. Botunuzun işleyeceği veri türüne uygun en iyi güvenlik uygulamalarını izleyin.

  1. Botunuzun erişilebilir olduğundan emin olun.

Botlar ancak eğer insanlar için kapsayıcı ve erişilebilir olacak şekilde tasarlanmışlarsa herkese fayda sağlayabilir.

  1. Sorumluluğu kabul edin.

O gün gelecek olsa bile, şu an gerçekten bağımsız hareket edebilen botlardan çok uzaktayız. İnsanlar botların çalışmasından sorumludur.

 

Dokümanın orijinaline aşağıdaki bağlantıdan ulaşabilirsiniz:

https://www.microsoft.com/en-us/research/uploads/prod/2018/11/Bot_Guidelines_Nov_2018.pdf

Federal Hükümet’in Yapay Zeka Stratejisi için Veri Etiği Komisyonu’nun Önerileri

Federal Hükümet’in Yapay Zeka Stratejisi için Veri Etiği Komisyonu’nun Önerileri

Image result for daten ethik kommission"

9 Ekim 2018

Veri Etiği Komisyonu, Federal Hükümet’in yapay zeka konusunda bir strateji geliştirmesinden memnuniyet duymaktadır. Veri Etiği Komisyonu 4 ve 5 Eylül 2018 tarihli kurucu toplantısında, Federal Hükümet’in böyle bir strateji için oluşturduğu politika dokümanı üzerine tartıştı. Komisyon, Federal Hükümet’in stratejisine aşağıdaki hususların eklemesini tavsiye etmektedir:

  • “Yapay zekayı geliştirme ve uygulama süreci boyunca liberal demokrasimize dayalı etik ve yasal ilkeleri koruma” hedefi;
  • “Bireylerin ve toplumun bir bütün olarak, bilgi toplumunda eleştirel şekilde anlama ve yansıtma yeteneğini artırma” eylem alanı

I.

“Yapay zeka” (YZ) kavramı medyada ve genel olarak söylemlerde farklı şeylere gönderme yapmak için kullanılmaktadır. Federal Hükümet’in politika dokümanı, dokümanda yer verilen teknolojileri açıkça belirtmemektedir. Dolayısıyla bu bilgi eklenmelidir.

Bu bağlamda, “yapay zekayı” teknolojiler ve onların potansiyel olarak otomatikleştirilmiş uygulamalarında kullanılabilecek bir sonuca ulaşmak için, insan zekası üzerine modellenmiş karmaşık yöntemler kullanarak çok büyük ve heterojen veri kümelerini işleyen uygulamalar bakımından ortak bir terim olarak anlamaktayız. Bilgisayar biliminin bir parçası olarak YZ’nin en önemli yapı taşları alt sembolik örüntü tanıma, makine öğrenmesi, bilgisayarla işlenmiş bilginin temsili ve sezgisel arama, çıkarım ve planlamayı kapsayan bilgi işlemedir.

Bugün YZ kullanan uygulama yelpazesi zaten çok büyüktür. Bu uygulamalar seyahat rotalarının basit bir şekilde hesaplanmasından imge ve dil tanıma ve oluşturmaya, karar ve tahminlerde bulunma ve etki yaratma için oldukça karmaşık ortamlara kadar çeşitlilik göstermektedir. En önemli uygulamalar, dil ve görüntü tanıyan sistemleri; işbirliğine dayalı robotlar ve diğer otomatik sistemleri (araba, uçak, tren); çok etmenli sistemleri; sohbotları kapsamaktadır. Yaşamın tüm alanlarını etkileyecek ve daha geniş eylem alanlarında daha fazla insan faaliyetini otomatik olarak (kısmen) değiştirebilecek ve çok daha iyi performans gösterebilecek otonom ve kapsamlı uygulamaların geliştirilmesini beklemekteyiz.

Bu bağlamda ortaya çıkan etik ve yasal önemi olan sorular ayrıca, uzman sistemler olarak da tanımlanan, algoritmalara dayalı basit kural sistemleriyle de ilgilidir. Bunlar, genellikle anlaşıldığı gibi YZ’yi oluşturmamaktadır. Federal Hükümet’in YZ’ye yönelik stratejisinin de bu süreçleri kapsaması önemlidir.

II.

Muhtemel YZ uygulamalarının çeşitliliği ve ilgili teknolojilerin karmaşıklığı, özellikle onları etik ve yasalara uygun olarak tasarlamayı ve bu uygunluğu düzenlemeyi zorlaştırmaktadır. Gittikçe daha fazla karar alma süreci, insanlardan eylem konusu YZ gömülü sistemlere doğru değişirken, YZ’nin geliştirilmesinden, programlanmasından, tanıtılmasından, kullanılmasından, yönlendirilmesinden, izlenmesinden ve dış incelemesinden kimin sorumlu olduğuna dair yeni sorular ortaya çıkmaktadır. Ayrıca, spesifik işleyiş, girilen ve / veya uygulamayı “eğitmek” için kullanılan verilerin seçimine ve kalitesine bağlıdır. Bazı veri türlerini basitçe görmezden gelmek ve kötü hazırlanmış verileri kullanmak, sistematik ayrımcılığa yol açan etik sonuçları barındırabilir ya da çoğulluğa karşı çıkacak şekilde sonuçlanabilir. Bu bağlamda, ayrıca temel haklara zarar vermeksizin YZ teknolojilerinde işlenebilecek veri miktarını artırmak için, modern anonimleştirme yöntemlerini araştırmaya ve sentetik eğitim verilerini oluşturmaya daha fazla destek verilmelidir,

Bazı YZ uygulamalarında ihtiyaç duyulan veriler, aynı zamanda yüksek düzeyde teknolojik uzmanlığa sahip az sayıda şirket arasında yoğunlaşmıştır. Bu, kişisel olmayan verilere “özel ellerde” erişimin kanunla düzenlenmesi gerekip gerekmediği sorusunu gündeme getirmektedir.

Son olarak, demokratik süreçle ilgili olarak, insan davranışını giderek daha inandırıcı bir şekilde taklit edebilen teknolojinin, sosyal eğilimleri ve siyasi görüşleri etkilemek için de kolayca kullanılabileceği belirtilmelidir.

“Tasarım yoluyla etik, tasarımda etik ve tasarım için etik” yaklaşımını ve “Avrupa yapımı YZ” markasını kullanarak, YZ geliştirme ve uygulama süreci boyunca etik hususlara değinilmelidir. Bu YZ araştırma, geliştirme ve üretiminin yanı sıra YZ tabanlı uygulamaların kullanımı, işletilmesi, izlenmesi ve yönetilmesini içermektedir. Veri Etiği Komisyonu için etik, öncelikle sınırların tanımı anlamına gelmemektedir; aksine, etik düşünceler gelişim sürecinin başından itibaren ele alındığında tavsiye edilebilir ve istenen uygulamaları destekleyerek tasarıma güçlü bir katkı sağlayabilirler.

Teknoloji, kullanıcılar ve toplum (“YZ ekosistemi”) arasındaki etkileşimleri de göz önünde bulundurmak gerekir. Bu ekosistem içerisinde, yeterli şeffaflık, hesap verebilirlik, ayrımcılıktan kurtulma özgürlüğü ve ek insan katkısı olmadan gerçekleştirilebilecek kararları hazırlayan veya sonuç çıkaran bu otomatik süreçleri gözden geçirme kabiliyetinin sağlanması gerekmektedir. Algoritma odaklı işlemlerin kullanımında ve sonuçlarında güven oluşturmanın tek yolu budur. Politika dokümanı (s. 9), kamu yönetiminde kullanılan algoritmalar için bu önlemleri haklı olarak talep etmektedir. Ancak aynı ilkeler, özel sektöre de uygun bir şekilde uygulanmalıdır. Kısmen bağımsız üçüncü kişiler ve kısmen de otomatikleştirilmiş süreçlerle desteklenebilecek kalite güvence önlemlerine de ihtiyaç vardır. Ayrıca, etkilenen kişilerin ve denetim otoritelerinin, etkili yasal yollara erişimin yanı sıra, müdahale etmek için uygun ve etkili olanaklara sahip olmalarını sağlamak da gereklidir.

YZ ile sorumlu bir şekilde başa çıkmak için en önemli standart, özellikle de Anayasadan önce, temel haklar, hukukun üstünlüğü ilkeleri, refah sistemi ve demokrasidir. Bu aynı zamanda, bireylerin kendi verilerini belirleme hakkını, bu da şirketlerin verilerini nasıl kullandıklarını müşterilere bildirmelerini; bir uygulamanın kişisel kullanımı ile ilgili bireysel kullanıcı kararlarına saygıyı; haksız ayrımcılığa karşı korumayı; ve makine kararlarını etkili biçimde gözden geçirme imkanını içermektedir. Ayrıca, YZ tabanlı teknolojilerin etik, yasal ve ekonomik ilkelere göre geliştirilmesi ve uygulanması konusundaki sorumluluğun derecesini açıkça tanımlayan yasal hükümlere de ihtiyacımız bulunmaktadır. Bu aynı zamanda YZ ile ilgili olarak tazminat ve kamu hukuku yükümlülüklerinin uygulanması için de geçerlidir.

Bu teknolojilerin tasarlanması ve uygulanması sürecine etik ve yasal ilkeler eklemek için gerekli olan çok çeşitli kontrol mekanizmaları düşünülebilir. Bu mekanizmalara demokratik bir süreçte ulusal ve Avrupa düzeyinde karar verilmelidir. YZ’nin devlet aktörleri tarafından kullanımı özel gözetim altında tutulmalıdır.

Denetim olanakları arasında, Anayasa, sertifikasyon ve standartlara uygun başvuruların hedefli olarak tanıtılması, resmi denetleme yetkisi ve kurumların YZ ve bağlayıcı yasalarla ilgili temel haklar ve etik kurallara uyması yer almaktadır.

Bunu göz önünde bulundurarak Veri Etiği Komisyonu, Federal Hükümet’in yapay zeka konusundaki stratejisinin, YZ geliştirme ve uygulama sürecinde tüm etik ve yasal ilkeleri desteklemesini, talep etmesini ve stratejinin bunu ek bir amaç olarak içermesini tavsiye etmektedir. Stratejinin eylem alanları bu amaç göz önünde bulundurularak tanımlanmalıdır.

III.

Her türlü bilgi ve teknoloji toplumun her seviyesini ve yaşamımızı daha önce hiç bilinmediği ölçüde etkilemektedir. Demokrasinin yapısal bağlantılı unsurları olarak sosyal etkileşimleri ve söylemi giderek daha fazla etkilemektedirler. YZ için yeni uygulamaların hızlı gelişimi aynı zamanda sürekli bir eleştirel inceleme süreci gerektirmektedir. Bu derin ve çeşitli değişiklikler sadece bireysel ifadeler için değil, aynı zamanda toplumdaki yaşamımız için de önemlidir. Artık her zamankinden daha gerekli olan özgürlüğü ve demokrasiyi güçlendiren bir.yaklaşımda bulunmaktadır. Diğer şeylerin yanı sıra, bireylerin ve kurumsal aktörlerin yeterli dijital ve medya okuryazarlığı kazanabilecekleri ve teknik yeniliklerle nasıl başa çıkacakları konusunda eleştirel olarak düşünebilecekleri bir çerçeveye ihtiyacımız bulunmaktadır.

Federal Hükümet’in politika dokümanı, politika yapıcıların yanı sıra araştırma topluluğu, sivil toplum, iş dünyası ve sanayi temsilcileri ile sürekli bir diyalog içinde Almanya’da güveni artıran bir YZ kültürü oluşturmak için yapay zeka konusundaki stratejisini uygulamaya çağırmaktadır. Veri Etiği Komisyonu bu önlemlerin önemini vurgulamaktadır.

Aynı zamanda YZ stratejisine ayrı bir eylem alanı eklemeyi de önermekteyiz: “Bireylerin ve toplumun bir bütün olarak, bilgi toplumunda eleştirel şekilde anlama ve yansıtma yeteneğini artırma”. Bu, bireylerin ve kurumsal aktörlerin yeterli dijital ve medya okuryazarlığı kazanmalarını ve YZ ile nasıl başa çıkacaklarını eleştirel olarak yansıtma yeteneği edinmelerini sağlamak içindir. Bu yetenekler, toplumun YZ kullanımına duyulan güveni arttırmaya yardımcı olabilecek objektif, bilinçli ve ayrıntılı bir inceleme yapması için esastır. Bununla birlikte Veri Etiği Komisyonu, şu anda Federal Hükümet’in politika dokümanında tanımlandığından daha geniş bir yaklaşımın gerekli olacağına inanmaktadır.

Dijital ve medya okuryazarlığını ve eleştirel yansımasını teşvik etmenin yolları, kampanyalarda kapsamlı, nesnel bilgiler sunmaktan, okulda ve yetişkin eğitim kurslarında medya okuryazarlığı öğretmekten, yasaları ve teknoloji dünyasında etik ilkeleri uygulama için teknolojilerin kullanılmasına ve geliştirilmesine kadar uzanmaktadır. Medya ve medya denetim kurumlarının da bu bağlamda oynayacakları önemli bir rol vardır: Rolleri sadece yeni teknolojiler hakkında toplumu bilgilendirmek ve teknolojik gelişmeyi eleştirel bir şekilde incelemek değil, aynı zamanda tartışma için yeni forumlar sağlamaktır.

Teknoloji etki değerlendirmesine yapılan yatırım, toplumumuzda YZ gibi teknolojilerin uygulandığı ölçüde artmalıdır. Örneğin, veri taşınabilirliği, birlikte çalışabilirlik ve tüketiciye olanak sağlayan teknolojiler konusunda daha fazla araştırma ve geliştirme yapılmalıdır; bunlar, birincil amacı tüketicilerin günlük kararlarında yardımcı olmak olan YZ uygulamalarını içermektedir.

Ve devletin, güven sağlayan çerçeve koşullarını oluşturma ve uygulama sorumluluğu ile kullanıcılar ve bir yandan yeni teknolojilerden etkilenen diğerlerinin özgürlük, otonomi ve sorumluluğu ile pazar gücü ve rekabet arasında bir denge bulunmalıdır. YZ’nin geliştirilmesinde büyük rol oynayan şirketlerin artan ekonomik gücü, araştırma ve sivil toplumun tam olarak bu şirketlerden gelen fonlara bağımlı hale gelmesine neden olmamalıdır. Hükümet, araştırma ve sivil toplumun bu önemli toplumsal tartışmaya bağımsız ve yetkinlik temelli katkılar sunmalarını sağlamalıdır.

YZ de dahil olmak üzere modern teknolojiler, belirli işlerdeki insanları geliştirip belirginleştirdikçe, sadece yeni beceriler kazanmakla kalmaz aynı zamanda mevcut becerileri de kaybederiz. Bu, gelecek nesillerin bağımsız kalmaları için belirli becerilerin korunması ve geliştirilmesi konusundaki sorumluluğumuzun tartışılmasını gerektirmektedir. Bu nedenle, tüm toplumun hakimiyeti için tanımı ve gereklilikleri de tartışmamız gerekmektedir.

Bu nedenle Veri Etiği Komisyonu, bireylerin ve toplumun bir bütün olarak, bilgi toplumunda eleştirel şekilde anlama ve yansıtma yeteneğini geliştirmek için uygun çerçeve koşulları yaratmaya odaklanan başka bir eylem alanını stratejiye eklemeyi önermektedir.

IV.

İlerleme ve sorumlu inovasyon, toplumun refahına büyük katkı sağlamaktadır. Karşılamamız ve teşvik etmemiz gereken muazzam fırsatlar sunmakta ama aynı zamanda riskleri de bulunmaktadır. Bu fırsatlar, insanların bireysel haklarının korunması ve sosyal bütünlüğün güçlendirilmesi konusunda her şeyden önce özgürlük, adalet ve refahın sürekliliğini sağlayabilir. Bunu akılda tutarak, Veri Etiği Komisyonu bu dokümanın başında belirtilen iki maddeyi Federal Hükümet’in yapay zeka stratejisine eklemesini şiddetle tavsiye etmektedir.

Raporun orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://www.bmjv.de/SharedDocs/Downloads/DE/Ministerium/ForschungUndWissenschaft/DEK_Empfehlungen_englisch.pdf?__blob=publicationFile&v=3

Büyük Veri Etiği

 

Büyük Veri Etiği

 

2017

 

Özet

 

Avrupa Ekonomi ve Sosyal Komitesi (EESC)’nin faaliyetlerini desteklemek amacıyla yapılan bu çalışma, Büyük Veri’nin etik boyutlarını, AB içindeki ekonomik büyümeye duyulan ihtiyaçla dengelemek amacıyla araştırmaktadır. Çalışmanın ilk bölümünde, Büyük Veri ile ilgili etik sorunları vurgulamak için mevcut literatürün derinlemesine bir incelemesi yapılmıştır. Yukarıda açıklanan dengeye ulaşmanın aracı olarak beş aksiyon geliştirilmiştir. Çalışmanın ikinci aşaması, birtakım kilit paydaşlarla yapılan görüşmeler ve Büyük Veri kullanımı ile ilgili hususlarda genel bilgiler edinen bir anket yürütülmesini içermektedir. Teklif edilen dengeleme aksiyonlarına ilişkin geri bildirimler de alınmış olup son incelemede göz önünde bulundurulmuştur. Büyük Veri’nin yararları katılımcılar tarafından nadiren tartışılırken, görüşmelerden ve anketlerden ortaya çıkan tutumlar, ilgiden endişeye doğru uzanmaktadır. Avantajlar, Büyük Veri’ye olduğu kadar risklere de özgüdür ve bu husus çalışma boyunca daha geniş bir şekilde tartışılmaktadır.

 

Çalışmanın orijinalini ve tamamını aşağıda bulabilirsiniz:

https://www.eesc.europa.eu/sites/default/files/resources/docs/qe-04-17-306-en-n.pdf

 

Yapay Zeka Etiği – Başarısızlık için Fazla İlkeli?

 

Yapay Zeka Etiği – Başarısızlık için Fazla İlkeli?

 

 

Brent Mittelstadt

Oxford Internet Enstitüsü

Oxford Üniversitesi

2019

 

 

Özet

“Yapay Zeka (YZ) etiği şu aralar akademik ve politika yapıcı çevrelerde küresel bir tartışma konusu. En az 63 özel/kamu inisiyatifi, YZ’nin etik gelişimine, yayılmasına ve yönetişimine yön vermek için üst düzey ilkeleri, değerleri ve diğer benzer ilkeleri tanımlayan ifadeler üretmiştir. Son meta-analizlere göre, YZ Etiği görünüşte, tıp etiğinin dört klasik ilkesine çok benzeyen bir dizi ilke üzerinde birleşti. Tıp etiğindeki ilkelerle bağlantı kurarak, YZ Etiği’nin ilk bakıştaki ilkeli yaklaşımanın güvenilirliğine rağmen, YZ geliştirme ve yönetişiminin gelecekteki etkileri konusunda endişe duymak için nedenler mevcut. Tıp ve YZ geliştirme arasında, YZ’deki ilkeli yaklaşımın tıbbınkiyle karşılaştırılabilir bir başarı sağlayamayacağına işaret eden önemli farklılıklar vardır. Tıbbınkiyle karşılaştırıldığında YZ geliştirme, (1) ortak amaç ve güvene dayanan yükümlülüklerden, (2) mesleğin geçmişi ve normlarından, (3) ilkeleri uygulamaya dönüştürmek için denenmiş yöntemlerden ve (4) güçlü yasal ve mesleki hesap verebilirlik mekanizmalarından yoksundur. Bu farklılıklar, derin normatif ve politikaya yönelik anlaşmazlıkları gizleyen üst düzey ilkeler etrafındaki fikir birliğini henüz göklere çıkarmamamız gerektiğini gösteriyor.”

 

Makalenin orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3391293

Ayrımcılık Yapan Sistemler – Yapay Zekada Cinsiyet, Irk ve Güç

 

Ayrımcılık Yapan Sistemler – Yapay Zekada Cinsiyet, Irk ve Güç

 

Sarah Myers West, AI Now Enstitüsü, New York Üniversitesi

Meredith Whittaker, AI Now Enstitüsü, New York Üniversitesi, Google Open Research

Kate Crawford, AI Now Enstitüsü, New York Üniversitesi, Microsoft Research

Nisan 2019

 

Araştırma Bulguları

YZ sektöründe cinsiyet ve ırk arasında bir çeşitlilik krizi söz konusudur. Son araştırmalar, önde gelen YZ konferanslarında yazarların sadece % 18’inin kadın1 ve YZ profesörlerinin % 80’inden fazlasının ise erkek 2olduğunu gösteriyor. YZ endüstrisindeki 3bu eşitsizlik ise daha da fazladır: kadınlar Facebook’ta YZ araştırma personelinin sadece% 15’ini ve Google’da ise % 10’unu oluşturmaktadır. Siyahi işçiler için ise tablo daha da kötü durumdadır. Örneğin, Google’ın işgücünün yalnızca % 2,5’i siyahi iken, Facebook ve Microsoft ise bu sayı % 4’tedir. Bu dengesizliği gidermek için yıllarca süren çaba ve yatırım göz önüne alındığında, alanın mevcut durumu endişe vericidir.

YZ sektörünün mevcut çeşitlilik krizini ele alışında derin bir değişim ihtiyacı hasıl olmuştur. YZ endüstrisinin çeşitlilik probleminin ciddiyetini, mevcut metodların gücün dengesiz dağılışı ile mücadele edemediğini, ayrıca YZ’nin bu eşitsizliği güçlendirdiğini kabul etmesi gerekir. Ayrıca, birçok araştırmacı YZ sistemlerindeki önyargıların tarihsel ayrımcılık kalıplarını yansıttığını göstermiştir. Bunlar aynı sorunun iki tezahürüdür ve birlikte ele alınmaları gerekir.

“Teknikte kadınlara” olan yoğun odaklanma çok dar ve beyaz kadınları diğerlerinden daha ayrıcalıklı kılmaktadır. Irk, cinsiyet ve diğer kimlik ve niteliklerin kesişme noktalarının insanların YZ ile olan deneyimlerini nasıl şekillendirdiğini bilmemiz gerekir. YZ çalışmalarının büyük çoğunluğu cinsiyetin ikili olduğunu varsayar ve genel olarak diğer tüm toplumsal cinsiyet kimliği biçimlerini silerek, fiziksel görünüme ve basmakalıp varsayımlara dayanarak insanları “erkek” veya “kadın” olarak atar.

“Algoritma akışını“ düzeltmek, YZ’nin çeşitlilik sorunlarını çözmez. Farklı meslekten adayların okuldan sektöre akışını değerlendiren onlarca yıllık “algoritma akışı çalışmaları”na rağmen, YZ endüstrisindeki çeşitlilik konusunda önemli bir ilerleme olmamıştır. Algoritma akışına odaklanma; işyeri kültürleri, güç asimetrileri, taciz, dışlayıcı işe alım uygulamaları, haksız tazminat ve insanların YZ sektöründen tamamen uzaklaşmasına veya çalışmalarını engellemesine neden olan belirtkeleme ile ilgili daha derin sorunları ele almamıştır.

YZ sistemlerinin, ırk ve cinsiyetin sınıflandırılması, tespiti ve öngörülmesindeki kullanımı, acil olarak yeniden değerlendirmeye ihtiyaç duymaktadır. “Irk bilimi”nin geçmişi, dış görünüşe dayalı ırk ve cinsiyet sınıflandırmasının bilimsel olarak kusurlu olduğuna ve kolayca kötüye kullanıldığına dair acımasız bir hatırlatıcıdır. Fiziksel görünüşü karakter veya içsel durumlar için bir vekil olarak kullanan sistemler, vesikalık fotoğraftan4 cinsiyeti belirlediğini, yüz özelliklerine dayanarak “suçluyu” öngördüğünü5 veya “mikro ifadeler” ile işçi yeterliliğini değerlendirdiğini 6iddia eden YZ araçları da dahil olmak üzere tüm bunlara kuşkuyla bakmak gerekir. Bu tür sistemler tarihsel eşitsizliği derinleştirecek ve haklı gösterebilecek şekilde ülkedeki ırk ve cinsiyet yanlılığı modellerini tekrarlamaktadır. Bu araçların ticari konuşlandırılması ise derin bir endişe kaynağıdır.

 

Raporun orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://ainowinstitute.org/discriminatingsystems.pdf

Güvenilir Yapay Zeka İçin Etik Kılavuz

 

Güvenilir Yapay Zeka İçin Etik Kılavuz

 

Avrupa Komisyonu Üst Düzey Uzman Grubu

8 Nisan 2019

 

ÖZET

Kılavuzun amacı güvenilir yapay zeka (YZ) için önayak olmaktadır. Güvenilir YZ, sistemin tüm yaşam döngüsü boyunca karşılanması gereken üç bileşene sahiptir: (1) Yürürlükteki tüm kanun ve yönetmeliklere uyarak, yasal olmalı, (2) etik ilkelere ve değerlere bağlılık sağlayarak etik olmalı ve (3) iyi niyetli olsalar bile, YZ sistemleri istenmeyen zararlara neden olabileceğinden, hem teknik hem de sosyal açıdan güçlü olmalıdır. Her bir bileşen kendi içinde gereklidir; ancak güvenilir YZ’nin başarısı için yeterli değildir. İdeal olarak, her üç bileşen de uyum içinde çalışır ve çalışmalarında örtüşürler. Uygulamada, bu bileşenler arasında uyuşmazlık ortaya çıkarsa, toplum onları hizalamaya çalışmalıdır.

Bu kılavuz, güvenilir YZ’yi elde etmek için bir çerçeve oluşturmuştur. Çerçeve açık bir şekilde, güvenilir YZ’nin ilk bileşenini (yasal YZ) ele almıyor. Bunun yerine, ikinci ve üçüncü bileşenlerde rehberlik etmeyi amaçlıyor: etik ve güçlü YZ’nin teşvik edilmesi ve güvence altına alınması. Tüm paydaşlara hitap eden kılavuz, içerdiği ilkelerin sosyoteknik sistemlerde nasıl kullanılabileceği konusunda rehberlik ederek bir etik ilkeler listesinin ötesine geçmeyi amaçlamaktadır. Bölüm 1’deki en soyuttan, Bölüm III’teki en somut olana kadar üç ayrı kısımda kılavuzluk sağlanmış, YZ sistemleri tarafından ortaya konan fırsatlar ve hassas hususlarla kapanış yapılmıştır.

I. Temel haklara dayanan bir yaklaşımla, Bölüm I YZ sistemlerinin geliştirilmesinde, uygulanmasında ve kullanımında saygı gösterilmesi gereken etik ilkeleri ve bunlarla ilişkili değerleri belirlemektedir.

Bölüm I’den çıkarılan anahtar ilkeler:

  • YZ sistemlerini, insan otonomisine saygı, zararın önlenmesi, adalet ve açıklık açısından etik ilkelere uyacak şekilde geliştirin, uygulayın ve kullanın. Bu ilkeler arasındaki potansiyel gerilimleri kabul edin ve ele alın.
  • Çocuklar, engelliler ve tarihsel olarak dezavantajlı olan ya da dışlanma riski taşıyan kişiler gibi daha savunmasız grupları içeren durumlara ve işverenler ile işçiler veya işletmeler ve tüketiciler arasında olduğu gibi güç veya bilgi asimetrileri ile karakterize edilen durumlara özellikle dikkat edin.
  • Bireylere ve topluma önemli faydalar sağlarken, YZ sistemlerinin de belli riskler doğurduğunu ve tahmin edilmesi, tanımlanması veya ölçülmesi zor olabilecek etkiler dahil olmak üzere (örneğin, demokrasi, hukukun üstünlüğü ve adaletin dağıtımında veya insan aklının kendisinde) olumsuz bir etkisi olabileceğini kabul edin. Uygun olduğunda bu riskleri azaltmak için ve riskin büyüklüğü ile orantılı olarak yeterli önlemleri alın.

II. Bölüm I’e göre, Bölüm II, YZ sistemlerinin karşılaması gereken yedi gereksinimi listeleyerek güvenilir YZ’nin nasıl gerçekleştirilebileceği konusunda kılavuzluk eder. Uygulaması için hem teknik hem teknik olmayan yöntemler kullanılabilir.

Bölüm II’den çıkarılan anahtar ilkeler:

  • YZ sistemlerinin geliştirilmesi, uygulanması ve kullanımının, güvenilir YZ için yedi temel gereksinimi karşıladığından emin olun: (1) insan temsilcisi ve gözetim, (2) teknik sağlamlık ve güvenlik, (3) mahremiyet ve veri yönetimi, (4) şeffaflık, (5) çeşitlilik, ayrımcılık yapmama ve adalet, (6) çevresel ve toplumsal refah ve (7) hesap verebilirlik.
  • Bu gereksinimlerin uygulanmasını sağlamak için teknik ve teknik olmayan yöntemleri göz önünde bulundurun.
  • YZ sistemlerinin değerlendirilmesine yardımcı olun ve gereksinimlerin yerine getirilmesi için araştırma ve inovasyonu teşvik edin; sonuçları yayın ve soruları daha geniş kitlelere açın ve YZ etik alanında yeni nesil uzmanları sistematik olarak eğitin.
  • YZ sisteminin yetenekleri ve sınırları, gerçekçi beklentinin belirlenmesi ve gereksinimlerin karşılanma şekli hakkında paydaşlarla açık ve proaktif bir şekilde iletişim kurun. YZ sistemleriyle uğraşma konusunda şeffaf olun.
  • YZ sistemlerinin, özellikle kritik bağlamlarda veya durumlarda izlenebilirliğini ve denetlenebilirliğini kolaylaştırın.
  • YZ sisteminin yaşam döngüsü süresince paydaşları buna dahil edin.Tüm paydaşların güvenilir YZ konusunda farkındalık kazanması ve eğitilmeleri için eğitimleri teşvik edin.
  • Farklı ilkeler ve gereksinimler arasında temel gerilimler olabileceğine dikkat edin. Bu değişimleri ve çözümlerini sürekli olarak belirleyin, değerlendirin, belgelendirin ve iletin.

III.  Bölüm III, Bölüm II’de belirtilen temel gereksinimleri operasyonelleştirmeyi amaçlayan somut ve ayrıntılı olmayan bir güvenilir YZ değerlendirme listesi sunmaktadır. Bu değerlendirme listesinin YZ sisteminin belirli kullanım durumlarına göre uyarlanması gerekecektir.

Bölüm III’ten çıkarılan anahtar ilkeler:

  • YZ sistemlerini geliştirirken, uygularken veya kullanırken güvenilir bir YZ değerlendirme listesi benimseyin ve bunu sistemin uygulandığı özel kullanım durumuna uyarlayın.
  • Böyle bir değerlendirme listesinin asla detaylı olmayacağını unutmayın. Güvenilir YZ’nin sağlanması, onay kutularıyla değil, gereksinimleri sürekli belirleme ve uygulama, çözümleri değerlendirme, YZ sisteminin yaşam döngüsü boyunca iyileştirilmiş sonuçları sağlama ve buna paydaşları dahil etme ile ilgilidir.

Belgenin son bölümü, izlenmesi gereken yararlı fırsatlardan örnekler ve dikkatle ele alınması gereken, YZ sistemleri tarafından ortaya konan kritik hususları sunarak, çerçeve boyunca değinilen sorunların bazılarını somutlaştırmayı amaçlamaktadır.

Bu kılavuz, güvenilir YZ çalışmalarına ulaşmada yatay bir temel oluşturarak, genel olarak YZ uygulamalarına kılavuzluk sunmayı amaçlasa da, farklı durumlar farklı zorluklar doğurur. Bu nedenle, bu yatay çerçeveye ek olarak, YZ sistemlerinin bağlamsallığı göz önüne alındığında sektörel bir yaklaşımın gerekli olup olmadığı araştırılmalıdır.

Bu kılavuz, ne herhangi mevcut veya gelecekteki bir politikanın veya bir düzenlemenin yerini alma niyetindedir ne de böyle bir girişimi engellemeyi amaçlamaktadır. Bu belge “Avrupa için Güvenilir YZ” tartışması için bir başlangıç noktasıdır.

Avrupa’nın ötesinde Kılavuz ayrıca, küresel düzeyde YZ sistemleri için etik bir çerçeve üzerinde araştırma, yansıtma ve tartışmayı geliştirmeyi amaçlamaktadır.

 

Kılavuzun orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Yapay Zeka ve Veri Koruması Üzerine Kılavuz İlkeler

 

Yapay Zeka ve Veri Koruması Üzerine Kılavuz İlkeler

25 Ocak 2019

 

Yapay Zeka[1](“YZ”) tabanlı sistemler, yazılımlar ve cihazlar (bundan sonra YZ uygulamaları olarak anılacaktır.) ihtiyaçları karşılamak ve akıllı evler, akıllı şehirler, sanayi sektörü, sağlık ve suçu önleme gibi çeşitli alanlardaki zorlukları ele almak için yeni ve değerli çözümler sunmaktadır. YZ uygulamaları, özellikle bulguya dayalı ve kapsayıcı politikaları desteklemek için karar vermede yararlı bir araç olabilir. Diğer teknolojik yeniliklerde olduğu gibi, bu uygulamaların bireyler ve toplum için olumsuz sonuçları olabilir. Bunu önlemek için, 108 nolu Sözleşme’nin tarafları, YZ’nin geliştirilmesi ve kullanılmasının gizlilik ve veri koruma haklarına (Avrupa İnsan Hakları Sözleşmesinin 8. Maddesi) saygılı olmasını sağlayacak ve  garanti edecek; böylece insan haklarını ve temel özgürlükleri genişletecektir.

Bu Kılavuz İlkeler, hükümetler, YZ geliştiricileri, üreticileri ve servis sağlayıcılarına, YZ uygulamalarının, özellikle veri koruma hakkı konusunda, her bireyin insan onurunu ve insan haklarını ve temel özgürlüklerini zedelememesini sağlamak için takip etmeleri gereken bir dizi temel önlem sunmaktadır.[2]

Bu Kılavuz İlkelerden hiçbiri, Avrupa İnsan Hakları Sözleşmesi ve 108 nolu Sözleşme’nin hükümlerini engelleyecek veya sınırlayacak şekilde yorumlanamaz. Bu Kılavuz İlkeler, aynı zamanda, modernize edilmiş 108 nolu Sözleşme’nin (daha çok “Sözleşme 108+” olarak anılmaktadır.) yeni güvencelerini de dikkate almaktadır.[3]

     

         I. Genel Kılavuz

  1. Bireyler ve toplum üzerinde sonuçları olabilecek YZ uygulamaları geliştirirken ve benimserken, insanlık onurunun korunması ve insan haklarının ve temel özgürlüklerin, özellikle kişisel verilerin korunması hakkının güvenceye alınması esastır. Bu, özellikle YZ uygulamaları karar alma süreçlerinde kullanıldığında önemlidir.
  2. Kişisel verilerin işlenmesine bağlı yapay zeka gelişimi, Sözleşme 108+ ilkelerine dayanmalıdır. Bu yaklaşımın ana unsurları: yasallık, adalet, amaç belirleme, veri işlemenin orantılılığı, tasarıma göre gizlilik ve varsayılan ayarlarla gizlilik, sorumluluk ve uygunluk gösterilmesi (hesap verebilirlik), şeffaflık, veri güvenliği ve risk yönetimidir.
  3. Kişisel verilerin işlenmesinin potansiyel risklerinden kaçınılması ve azaltılması üzerine odaklanan bir yaklaşım, YZ alanında sorumlu inovasyonun gerekli bir unsurudur.
  4. 2017’de 108 nolu Sözleşme Komitesi tarafından kabul edilen Büyük Veri Üzerine Kılavuz’da[4] sunulan risk değerlendirmesine uygun olarak, veri işlemenin olası sonuçlarına dair daha geniş bir bakış açısı benimsenmelidir. Bu görüş yalnızca insan haklarını ve temel özgürlükleri değil, aynı zamanda demokrasilerin işleyişini, sosyal ve etik değerleri de göz önünde bulundurmalıdır.
  5. YZ uygulamaları, özellikle Sözleşme 108+’nın 9’uncu maddesi ışığında, her zaman veri öznelerinin haklarına tamamıyla saygı göstermelidir.
  6. YZ uygulamaları, veri özneleri tarafından veri işleme ve bireyler ile toplum üzerindeki ilgili etkiler konusunda anlamlı kontrol sağlanmasına izin vermelidir.

   

         II. Geliştiriciler, Üreticiler ve Servis Sağlayıcılar İçin Kılavuz 

  1. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, ürün ve hizmetlerinin tasarımında, Sözleşme 108+’nın özellikle 10.2’inci maddesine ve Avrupa Konseyi’nin diğer ilgili araçlarına uygun olarak, değer odaklı bir yaklaşım benimsemelidir.
  2. YZ geliştiricileri, üreticileri ve servis sağlayıcıları YZ uygulamalarının insan hakları ve temel özgürlükler üzerindeki olası olumsuz sonuçlarını değerlendirmeli ve bu sonuçları göz önünde bulundurarak uygun risk önleme ve azaltma önlemlerine dayalı bir ihtiyatlı yaklaşım benimsemelidir.
  3. Veri toplama dahil, işlemenin tüm aşamalarında, YZ geliştiricileri, üreticileri ve servis sağlayıcıları insan hakları yanlısı tasarım yaklaşımı benimsemeli; ayrıca kasıtsız veya saklı olanlar dahil olası önyargılardan, ayrımcılık riskinden ya da insan hakları ve veri öznelerinin temel özgürlükleri üzerindeki diğer olumsuz etkilerden kaçınmalıdır.
  4. YZ geliştiricileri, kullanılan kişisel verilerin kalitesini, doğasını, kökenini ve miktarını, geliştirme sırasında gereksiz, ihtiyaç fazlası veya marjinal verileri azaltarak, eğiterek ve daha sonra modelin doğruluğunu yeni verilerle beslerken izleyerek, eleştirel olarak değerlendirmelidir. Sentetik verilerin kullanımı[5]YZ uygulamaları tarafından işlenen kişisel veri miktarını en aza indirmek için olası bir çözüm olarak düşünülebilir.
  5. Bağlamsız veriler[6]ve bağlamsız algoritmik modeller[7]nedeniyle bireyler ve toplum üzerindeki olumsuz etki riski YZ uygulamalarının geliştirilmesinde ve kullanımında yeterince dikkate alınmalıdır.
  6. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, çeşitli alanlardan bağımsız uzman komiteleri kurmaları ve onlara danışmaları, ayrıca insan hakları temelli, etik ve sosyal yönelimli YZ uygulamaları tasarlamaya katkıda bulunabilecek bağımsız akademik kurumlarla iletişim kurmaları ve potansiyel önyargıları tespit etmeleri konusunda teşvik edilmektedir. Bu tür komiteler, şeffaflık ve paydaş katılımının, öngörücü adalet, suçu önleme ve tespit alanlarında olduğu gibi yarışan çıkarlar ve haklar nedeniyle daha zor olabileceği alanlarda özellikle önemli bir rol oynayabilir.
  7. YZ uygulamalarından potansiyel olarak etkilenen bireylerin ve grupların aktif katılımına dayanan katılımcı risk değerlendirme biçimleri teşvik edilmelidir.
  8. Tüm ürün ve hizmetler, bireylerin, görüşlerini dikkate almayan, yalnızca otomatik işlemeye dayalı,  kendilerini önemli ölçüde etkileyen kararlara maruz kalmamalarını sağlayacak şekilde tasarlanmalıdır.
  9. Kullanıcıların güvenini artırmak için, YZ geliştiricilerinin, üreticilerinin ve servis sağlayıcılarının, YZ uygulamalarına makul alternatifler sunarak, kullanıcıların YZ hizmetlerine göre seçim yapma özgürlüğünü güvence altına alacak şekilde ürünlerini ve hizmetlerini tasarlamaları teşvik edilmektedir.
  10. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, veri koruması ve insan hakları hukuku ve ilkelerine uygunluğu sağlamak için, bu uygulamaların tüm yaşam döngüsü boyunca ilgili tüm paydaşların hesap verebilirliğini sağlayan bir algoritma dikkati modeli benimsemelidir.
  11. Bir YZ uygulamasıyla etkileşime girmeleri ve onlara uygulanan YZ veri işleme işlemlerinin gerekçeleri hakkında bilgi edinme hakları varsa veri öznelerine bilgi verilmelidir. Bu, böyle bir akıl yürütmenin sonuçlarını içermelidir.
  12. Bireylerin görüşlerini ve kişisel gelişimlerini etkileyen teknolojilere dayalı işlemelerle ilgili olarak itiraz etme hakkı sağlanmalıdır.

   

         III. Yasa ve Politika Yapıcılar İçin Kılavuz 

  1. Sorumluluk ilkesine saygı duyma, risk değerlendirme prosedürlerinin benimsenmesi ve davranış kuralları ve sertifikalandırma mekanizmaları gibi diğer uygun önlemlerin uygulanması, YZ ürünlerine ve hizmetlerine duyulan güveni artırabilir.
  2. Yasalarla korunan gizlilik önyargısı olmaksızın, kamu ihale prosedürleri, YZ geliştiricileri, üreticileri ve servis sağlayıcılarına özel şeffaflık görevleri, veri işlemenin insan hakları ve temel özgürlükler üzerindeki etkisinin önceden değerlendirmeyi ve YZ uygulamalarının olası olumsuz etkileri ve sonuçları (bundan böyle algoritma dikkati olarak anılacaktır) konusunda dikkatli olmaya zorlamalıdır.[8]
  3. Denetim otoritelerine YZ geliştiricileri, üreticileri ve servis sağlayıcılarının algoritma dikkat programlarını desteklemek ve izlemek için yeterli kaynak sağlanmalıdır.
  4. YZ uygulamaları tarafından sağlanan çözümlere aşırı güvenme ve YZ uygulamaları tarafından önerilen zorlu kararların korkusu, karar alma süreçlerinde insan müdahalesinin özerkliğini değiştirme riski taşımaktadır. Bu nedenle, karar alma süreçlerinde insan müdahalesinin rolü ve insani karar vericilerin YZ kullanarak sunulan önerilerin sonucuna güvenmeme özgürlüğü korunmalıdır.
  5. YZ geliştiricileri, üreticileri ve servis sağlayıcıları, YZ uygulamaları insan haklarını ve veri öznelerinin temel özgürlüklerini önemli ölçüde etkileme potansiyeline sahip olduğunda denetim otoritelerine danışmalıdır.
  6. Veri koruması denetleme makamları ve YZ ile ilgili yeterliliği olan diğer organlar arasında iş birliği teşvik edilmelidir, örneğin: tüketicinin korunması; rekabet; ayrımcılıkla mücadele; sektör düzenleyicileri ve medya düzenleyici makamları.
  7. Bölüm II.6’da belirtilen uzman komitelerinin bağımsızlığını sağlamak için uygun mekanizmalar uygulanmalıdır.
  8. Bireyler, gruplar ve diğer paydaşlar bilgilendirilmeli ve YZ’nin sosyal dinamikleri şekillendirmede ve onları etkileyen karar alma süreçlerinde oynayacakları rolün tartışılmasında aktif olarak yer almalıdır.
  9. Politika yapıcılar, veri öznelerinin YZ uygulamalarını ve etkilerini anlama konusundaki farkındalıklarını ve anlayışlarını artırmak için dijital okuryazarlık ve eğitim kaynaklarına yatırım yapmalılar. Ayrıca, YZ geliştiricileri için YZ’nin bireyler ve toplum üzerindeki potansiyel etkileri konusunda farkındalık ve anlayış geliştirmede mesleki eğitimi teşvik etmeliler. İnsan hakları odaklı YZ araştırmalarını desteklemeliler.

 

[1] Aşağıdaki YZ tanımına Avrupa Konseyi’nin https://www.coe.int/en/web/human-rights-rule-of-law/artificial-intelligence/glossary adresinden erişilebilir: “Amacı, bir insanın bilişsel yeteneklerini bir makine tarafından üretmek olan bir dizi bilim, teori ve teknik. Örneğin mevcut gelişmeler, bir makineye daha önce bir insana devredilen karmaşık görevleri vermeyi hedefliyor.”

[2] Bu Kılavuz İlkeler şu adresteki Yapay Zeka Raporu’nu (“Yapay Zeka ve Veri Koruma: Zorluklar ve Muhtemel Çözümler”) izlemekte ve geliştirmektedir: https://rm.coe.int/artificial-intelligence-and-data-protection-challenges- ve-muhtemel-re / 168091f8a6

[3] Kişisel Verilerin Otomatik Olarak İşlenmesine İlişkin Bireylerin Korunması Sözleşmesi 223 nolu Protokolün değiştirilmesi.

[4] https://rm.coe.int/t-pd-2017-1-bigdataguidelines-en/16806f06d0

[5] Sentetik veriler, gerçek veriler üzerine kurulmuş bir veri modelinden üretilir. Orijinal gerçek verileri temsil etmelidirler. OECD’deki sentetik verinin tanımına bakınız. İstatistiksel Terimler Sözlüğü, 2007. http://ec.europa.eu/eurostat/ramon/coded_files/OECD_glossary_stat_terms.pdf(“Gerçek verileri yaymak yerine, bir veya daha fazla topluluk modelinden üretilmiş sentetik verilerin yayınlandığı gizlilik yaklaşımı”).

[6] Bu, önerilen YZ tabanlı çözümlerin kullanılması gereken belirli durumları karakterize eden bağlamsal bilgileri göz ardı etme riskidir.

[7] Bu, başlangıçta belirli bir uygulama için tasarlanmış YZ modelleri farklı bir bağlamda veya farklı amaçlar için kullanıldığında olur.

[8] Hesap verebilirliğin benimsenmesi, bu uygulamaların tüm yaşam döngüsü boyunca potansiyel olumsuz etki ve sonuçlarıyla ilgili farkındalık ve risk yönetimi uygulamalarının benimsenmesi konusunda 40. Uluslararası Veri Koruma Konferansı, Yapay Zekada Etik ve Veri Koruma Bildirimi, kılavuz ilke no.2.  Ayrıca bkz. Yapay Zeka Raporu (dipnot 2), Bölüm II.4.

 

Kılavuzun orijinalini ve bağlantı adresini aşağıda bulabilirsiniz:

https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8

 

 

Süper Zeka ; Gidiş yolu, Tehlikeler, Stratejiler

Süper Zeka ; Gidiş yolu, Tehlikeler, Stratejiler

 

 

Türü: Bilim kurgu/ felsefe / popüler bilim

Yazar: Nick Bostrom

Yayım tarihi: 3 Temmuz 2014

Yayımevi: Oxford University Press

 

 

 

İsveç doğumlu Nick Bostrom,  Oxford Üniversitesi’nde görev yapan bir felsefecidir. Yine Oxford Üniversitesi bünyesinde İnsanlığın Geleceği Enstitüsü ve Geleceğin Teknolojilerinin Etkileri Programı’nı kurmuştur.

Yazarın yayımladığı birçok eseri olmakla beraber, kendisi transhumanizme olan katkısıyla bilinmektedir. 2003 yılında ortaya attığı “Simülasyon Argümanı” ile birlikte dikkatleri üzerine çekmiştir.

Bostrom, bir röportajında ” Elinde bombayla oynayan küçük çocuklara benziyoruz” der. Bu konuda haklı olabilir. Çünkü yapay zeka birgün varlığını ve kullanım amacını sorgulamaya başlarsa, yanlış kararlar alması onu kontrolden çıkarabilir.

2014’te yazdığı Superintelligence’ta bu çıkış noktasından hareket ediyor ve karar alabilen bir yapay zekanın ayrıca etik değerlere de sahip olması gerektiğini vurguluyor.

Yapay zeka ve etik konusuyla ilgili okunabilecek keyifli bir kitap.

Selin

 

Ayrıca bakınız:

http://www.nickbostrom.com/

https://www.theguardian.com/technology/2016/jun/12/nick-bostrom-artificial-intelligence-machine


Alıntı için :

Selin Cetin
"Süper Zeka ; Gidiş yolu, Tehlikeler, Stratejiler"
Hukuk & Robotik, Saturday August 5th, 2017
https://robotic.legal/super-zeka/- 09/12/2021