Yapay Zeka İçin Yeni Kurallar – Sorular ve Cevaplar

 

Yapay Zeka İçin Yeni Kurallar 

-Sorular ve Cevaplar-

Avrupa Birliği Komisyonu

2021

 

  1. Yapay zeka teknolojisinin kullanımını neden hukuki olarak düzenlememiz gerekiyor?

Yapay zekanın toplumlarımız için potansiyel faydaları, gelişmiş tıbbi tedaviden daha iyi eğitime kadar çok çeşitlidir. Yapay zekanın hızlı teknolojik gelişimi ile karşı karşıya kalan AB, bu fırsatlardan yararlanmak için tek vücut halinde hareket etmelidir. Çoğu yapay zeka sistemi düşük veya sıfır risk barındırırken, bazı yapay zeka sistemleri istenmeyen sonuçlardan kaçınmak için ele alınması gereken riskler oluşturmaktadır. Örneğin, birçok algoritmanın şeffaf olmaması, belirsizlik yaratabilir, ayrıca güvenlik ve temel haklarla ilgili mevcut mevzuatın etkili bir şekilde uygulanmasını engelleyebilir. Bu zorluklara karşılık, hem faydaların hem de risklerin layıkiyle ele alındığı yapay zeka sistemleri için iyi işleyen bir iç pazar sağlamak üzere yasama faaliyetinin yürütülmesi gerekmektedir. Bu, biyometrik tanımlama sistemleri gibi uygulamaları veya işe alım, eğitim, sağlık hizmetleri veya yargı hususlarında olduğu gibi önemli kişisel alanlara değinen yapay zeka kararlarını içermektedir. Komisyon’un yapay zeka ile ilgili düzenleme önerisi, temel hakların korunması ve kullanıcı güvenliğinin sağlanması ile yapay zekanın geliştirilmesi ve benimsenmesine olan güvenin sağlanmasını amaçlamaktadır.

 

  1. Yeni yapay zeka kuralları hangi riskleri ele alacak?

Yapay zeka sistemlerinin kavranması toplumsal fayda ve ekonomik büyümeyi sağlama ile AB inovasyonunu ve küresel rekabet gücünü artırma konusunda güçlü bir potansiyele sahiptir. Bununla birlikte, belirli durumlarda, belirli yapay zeka sistemlerinin kendine özgü özellikleri, kullanıcı güvenliği ve temel haklarla ilgili yeni riskler oluşturabilmektedir. Bu, şirketler için hukuki belirsizliğe ve güven eksikliği nedeniyle işletmeler ve vatandaşlar tarafından yapay zeka teknolojilerinin potansiyel olarak daha yavaş kavranmasına yol açmaktadır. Ulusal makamların birbirinden tamamen farklı düzenleyici müdahaleleri, iç pazarın parçalanma riskini doğuracaktır.

 

  1. Risk kategorileri nelerdir?

Komisyon, dört risk seviyesi ile risk temelli bir yaklaşım önermektedir:

Kabul edilemez risk: Temel hakları ihlal ettikleri için AB değerlerine aykırı olan çok sınırlı sayıda, özellikle zararlı yapay zeka kullanımı yasaklanacaktır. (ör. hükümetler tarafından yapılan sosyal puanlama, çocukların kırılganlıklarının istismar edilmesi, bilinçaltı tekniklerinin kullanımı ve – dar istisnalara tabi olarak – kolluk kuvvetlerince kullanılan halka açık alanlarda canlı uzaktan biyometrik tanımlama sistemleri)

Yüksek risk: Öneride tanımlanan sınırlı sayıda yapay zeka sistemi, insanların güvenliği veya (AB Temel Haklar Şartı tarafından korunan) temel hakları üzerinde olumsuz bir etki yaratarak yüksek riskli olarak kabul edilmektedir. Önerinin ekinde, yapay zeka kullanım durumlarının evrimiyle uyumlu olacak şekilde (geleceğe dönük) gözden geçirilebilecek yüksek riskli yapay zeka sistemlerinin listesi yer almaktadır. Bunlar, sektörel Birlik mevzuatı tarafından kapsanan ürünlerin güvenlik unsurlarını da içermektedir. Sektörel mevzuat kapsamında üçüncü taraf uygunluk değerlendirmesine tabi olduklarında her zaman yüksek riskli olacaktır. Güveni ve aynı zamanda güvenliğin ve temel hakların yüksek düzeyde ve istikrarlı bir şekilde korunmasını sağlamak için tüm yüksek riskli yapay zeka sistemlerine yönelik zorunlu gereklilikler önerilmiştir. Bu gereklilikler kullanılan veri setlerinin kalitesi; teknik dokümantasyon ve kayıt tutma; şeffaflık ve kullanıcılara bilgi sağlanması; insan gözetimi; ve sağlamlık, doğruluk ve siber güvenlik konularını kapsamaktadır. İhlal durumunda, ulusal makamların yapay zeka sisteminin kullanımının hukuka uygun olup olmadığını araştırmak için gereken bilgilere erişmesine izin verilecektir. Öneri, Avrupa Birliği Temel Haklar Şartı ile tutarlı ve AB’nin uluslararası ticaret taahhütleriyle uyumludur.

Sınırlı risk: Belirli yapay zeka sistemleri için, örneğin açık bir manipülasyon riskinin olduğu durumlarda (örneğin, sohbet robotlarının kullanılması yoluyla) belirli şeffaflık gereksinimleri dayatılmaktadır. Kullanıcılar, bir makine ile etkileşimde bulunduklarının farkında olmalıdır.

Asgari risk: Diğer tüm yapay zeka sistemleri, ek hukuki yükümlülükler olmaksızın mevcut mevzuata tabi olarak geliştirilebilir ve kullanılabilir. Şu anda AB’de kullanılan yapay zeka sistemlerinin büyük çoğunluğu bu kategoriye girmektedir. Gönüllü olarak, bu sistemlerin sağlayıcıları güvenilir yapay zeka için gereklilikleri uygulamayı ve gönüllü davranış kurallarına uymayı seçebilir.

 

  1. Yüksek riskli yapay zeka sistemlerinin sağlayıcılarının yükümlülükleri nelerdir?

Yüksek riskli bir yapay zeka sistemini AB pazarında bulundurmadan veya başka bir şekilde hizmete sunmadan önce, sağlayıcılar bunu bir uygunluk değerlendirmesine tabi tutmalıdır. Sistemlerinin, güvenilir yapay zeka için zorunlu gerekliliklere uygun olduğunu (örneğin veri kalitesi, dokümantasyon ve izlenebilirlik, şeffaflık, insan gözetimi, doğruluk ve sağlamlık) göstermesi gerekecektir. Sistemin kendisinin veya amacının büyük ölçüde değiştirilmesi durumunda, değerlendirmenin yinelenmesi gerekecektir. Belirli yapay zeka sistemleri için, bağımsız bir onaylı kuruluşun da bu sürece dahil olması gerekecektir. Sektörel Birlik mevzuatı kapsamındaki ürünlerin güvenlik unsurları olan yapay zeka sistemleri, söz konusu sektör mevzuatı kapsamında üçüncü taraf uygunluk değerlendirmesine tabi tutulduğunda her zaman yüksek riskli olarak kabul edilecektir. Ayrıca biyometrik tanımlama sistemleri için üçüncü taraf uygunluk değerlendirmesi her zaman gereklidir.

Yüksek riskli yapay zeka sistemlerinin sağlayıcıları, bir ürün piyasaya sürüldükten sonra bile yeni gerekliliklere uymalarını sağlamak ve ayrıca kullanıcılar ve etkilenen kişiler için riskleri en aza indirmek için kalite ve risk yönetimi sistemlerini uygulamak zorunda kalacaktır. Piyasa gözetim otoriteleri, sağlayıcılara, farkına vardıkları temel hak yükümlülüklerinin ihlallerini veya ciddi olayları raporlama imkanı sunarak denetimler yoluyla piyasa sonrası izlemeyi destekleyecektir.

 

  1. Uyum nasıl tatbik edilecek?

Üye Devletler, bu düzenlemenin uygulanmasında ve yürütülmesinde kilit bir role sahiptir. Bu bağlamda, her Üye Devlet, uygulamayı ve yürütmeyi denetlemek ve piyasa gözetim faaliyetlerini gerçekleştirmek üzere bir veya daha fazla ulusal yetkili makam belirlemelidir. Verimliliği artırmak ayrıca halkla ve diğer muhataplarla resmi bir temas noktası oluşturmak için, her Üye Devlet, ülkesini Avrupa Yapay Zeka Kurulu’nda da temsil edecek bir ulusal denetim makamı oluşturmalıdır.

 

  1. Avrupa Yapay Zeka Kurulu nedir?

Avrupa Yapay Zeka Kurulu, yetkili ulusal denetim makamları, Avrupa Veri Koruma Denetçisi ve Komisyonun üst düzey temsilcilerinden oluşacaktır. Rolü, yeni yapay zeka düzenlemesinin sorunsuz, etkili ve uyumlu bir şekilde uygulanmasını kolaylaştırmak olacaktır. Kurul, yüksek riskli yapay zeka sistemlerine ve yeni kuralların etkili ve tekdüze uygulanmasına ilişkin diğer hususlara ile ilgili olarak Komisyona tavsiyelerde bulunacak ve görüş bildirecektir. Ayrıca, uzmanlığın geliştirilmesine yardımcı olacak ve ulusal makamların danışabileceği bir yetkinlik merkezi olarak hareket edecektir. Son olarak, bölgedeki standardizasyon faaliyetlerini de destekleyecektir.

 

  1. Yapay zeka sistemlerinin ve uygulamalarının ithal edilmesinde düzenlemeye uyulması gerekecek mi?

Evet. Yapay zeka sistemlerinin ithalatçıları, yabancı sağlayıcının gerekli uygunluk değerlendirme prosedürünü halihazırda yürüttüğünden ve düzenleme tarafından gerekli görülen teknik dokümantasyona sahip olduğundan emin olmalıdır. Ek olarak, ithalatçılar, sistemlerinin Avrupa Uygunluk (CE) işareti taşıdığından ve gerekli dokümantasyon ile kullanım talimatlarının bulunduğundan emin olmalıdır.

 

  1. Makine Emniyet Düzenlemesi yapay zeka ile nasıl ilişkilidir?

Makine Emniyet Düzenlemesi, yeni nesil makine ürünlerinin kullanıcıların ve tüketicilerin güvenliğini garanti altına almayı sağlamakta ve inovasyonu teşvik etmektedir. Makine ürünleri, robotlardan (temizlik robotları, kişisel bakım robotları, işbirliğine dayalı robotlar, endüstriyel robotlar) çim biçme makinelerine, üç boyutlu yazıcılara, inşaat makinelerine, endüstriyel üretim hatlarına kadar geniş bir tüketici ve profesyonel ürün yelpazesini kapsamaktadır.

 

  1. Yapay zeka ile ilgili düzenlemeye nasıl uyuyor?

Her ikisi de tamamlayıcıdır. Makine Emniyet Düzenlemesi, uygulanabilir olduğunda, bir bütün olarak makinenin güvenliğini tehlikeye atmamak için yapay zeka sisteminin tüm makineye güvenli bir şekilde entegre edilmesini sağlarken, yapay zeka düzenlemesi, makinelerde güvenlik işlevlerini sağlayan yapay zeka sistemlerinin güvenlik risklerini ele alacaktır.

 

 

Soruların tamamına ve orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://ec.europa.eu/commission/presscorner/detail/en/QANDA_21_1683#3

Yapay Zeka Fizibilite Çalışması

 

Yapay Zeka Fizibilite Çalışması

 

Avrupa Konseyi

Yapay Zeka Ad Hoc Komitesi

2020

Giriş

“Yakın zamanda Parlamenterler Meclisi (PACE) tarafından kabul edilen raporlar da dahil olmak üzere, çeşitli Avrupa Konseyi belgelerinde belirtildiği gibi, yapay zeka sistemleri bireylerin yaşamını büyük ölçüde dönüştürmekte ve toplumun yapısı ve kurumlarının işleyişi üzerinde derinlemesine bir etkiye sahip olmaktadır. Kullanımları sağlık, ulaşım, eğitim ve kamu yönetimi gibi çok sayıda alanda önemli faydalar sağlama potansiyeline sahiptir ve genel itibariyle insanlık için umut verici fırsatlar oluşturmaktadır. Bunun yanında, yapay zeka sistemlerinin geliştirilmesi ve kullanımı, özellikle Avrupa toplumunun üzerine inşa edildiği temel unsurlar olan insan hakları, demokrasi ve hukukun üstünlüğüne müdahale konusunda önemli riskleri de beraberinde getirmektedir.

Yapay zeka sistemleri, etkisi yalnızca tasarımına bağlı olmayan, aynı zamanda kullanılan veriler, güdülen amaçlar, işlevsellik ve doğruluk, dağıtım ölçeği ve kullanıldığı daha geniş kurumsal, toplumsal ve yasal bağlam dolayısıyla “sosyo-teknik sistemler” olarak görülmelidir. Yapay zeka sistemlerinin olumlu veya olumsuz sonuçları aynı zamanda onları geliştiren ve kullanan insanların değerlerine ve davranışlarına da bağlıdır, bu da insan sorumluluğunun sağlanmasının önemine yol açmaktadır. Bununla birlikte, yapay zeka sistemlerinin, insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki olumlu ve olumsuz etkileri açısından onları diğer teknolojilerden ayıran bazı farklı özellikleri vardır.

İlk olarak, yapay zeka sistemlerinin ölçeği, bağlılığı ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri artırabilmektedir. Yapay zeka sistemleri, insanlardan çok daha hızlı bir şekilde, benzeri görülmemiş miktarda ayrıntılı veriyi (son derece hassas kişisel veriler dahil) analiz edebilmektedir. Bu yetenek, yapay zeka sistemlerinin, “proxy discrimination ” olarak adlandırılan durumlarda yeni ayrımcılık temellerine dayalı olarak, haksız önyargıyı devam ettirecek veya artıracak şekilde kullanılmasına yol açabilmektedir. Makine öğrenimi bağlamında bu ayrımcılığın artan önemi, doğrudan ve dolaylı ayrımcılık arasındaki farkın veya aslında, geleneksel olarak anlaşıldığı şekliyle, bu farkın uygunluğuna ilişkin yoruma dayalı soruları ortaya çıkarabilmektedir. Ayrıca, yapay zeka sistemleri istatistiksel hata oranlarına sahiptir. Milyonlarca insana uygulanan bir sistemin hata oranı sıfıra yakın olsa bile, sistemlerin dağıtım ölçeği ve birbirine bağlanabilirliği nedeniyle binlerce kişi yine de olumsuz etkilenebilmektedir. Öte yandan, yapay zeka sistemlerinin ölçeği ve erişimi, diğer teknolojilerde veya insan davranışında da bulunan belirli riskleri ve önyargıları azaltmak ve insan hatası oranlarını izlemek ve azaltmak için kullanılabilecekleri anlamana da gelmektedir.

İkinci olarak, birçok yapay zeka sisteminin karmaşıklığı veya belirsizliği (özellikle makine öğrenimi uygulamalarında), sistem geliştiricileri de dahil olmak üzere, insanların sistemin işleyişini veya sonucunu anlamasını veya izlemesini zorlaştırabilmektedir. Sistemin yaşam döngüsü boyunca farklı aşamalarda birçok farklı aktörün katılımı dolayısıyla bu belirsizlik, potansiyel bir olumsuz sonuçtan sorumlu olan unsurların belirlenmesini daha da karmaşık hale getirerek insan sorumluluğunu ve hesap verebilirliği azaltmaktadır.

Üçüncüsü, bazı yapay zeka sistemleri geri bildirim ve pekiştirmeli öğrenme yoluyla kendilerini yeniden ayarlayabilmektedir. Bununla birlikte, bir yapay zeka sistemi, haksız önyargılar, hatalar, yanlışlıklar veya diğer eksiklikler içeren kendi kararlarından kaynaklanan veriler üzerinde yeniden eğitilirse, sistemin ayrımcı, hatalı veya kötü niyetli işleyişine yol açabilecek kısır bir geri bildirim döngüsü ortaya çıkabilmekte ve tespit edilmesi zorlaşabilmektedir.”

 

Çalışmanın orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://rm.coe.int/cahai-2020-23-final-eng-feasibility-study-/1680a0c6da

 

Yapay Zeka Sistemlerinin Düzenlenmesine Doğru

 

Yapay Zeka Sistemlerinin Düzenlenmesine Doğru

 

CAHAI Secretariat
Aralık 2020

 

Özet

 

Başlık I- Uluslararası Bakış

Giriş, CAHAI tarafından Bakanlar Komitesi’ne sunulan mevcut raporu tanıtmakta ve COVID-19 pandemi önlemlerinin etkisini de dikkate alarak bugüne kadar kaydedilen ilerlemeyi detaylandırmaktadır. Ayrıca diğer ilgili paydaşlarla olan çalışma yöntemlerinin, birlikteliğin ve tamamlayıcılığın yansımalarını; aynı zamanda sağlam ve net bir yol haritasıyla CAHAI tarafından daha fazla aksiyon alınmasına yönelik önerileri içermektedir.

Bölüm 1, yapay zekanın insan hakları, demokrasi ve hukukun üstünlüğü üzerindeki etkisini ana hatlarıyla açıklamaktadır. Avrupa İnsan Hakları Sözleşmesi (“AİHS”), Protokolleri ve Avrupa Sosyal Şartı (“ESC”) tarafından ortaya konduğu şekliyle, şu anda yapay zekadan en çok etkilenen veya etkilenmesi muhtemel olan insan haklarını ele almaktadır.

Bölüm 2, küresel olarak hükümet ve sivil toplum kuruluşları tarafından geliştirilen esnek hukuk dokumanlarının ve diğer etik-yasal çerçevelerin bir haritasını ortaya koymaktadır. İlk olarak, zorunlu olmayan yönetişim araçlarının sürekli gelişen bu yelpazesini izlenmek istemektedirler. İkinci olarak ise yapay zekanın etik ilkeler, insan hakları, hukukun üstünlüğü ve demokrasi üzerindeki etkisini ileriye dönük olarak değerlendirmek istemektedirler.

Bölüm 3, insan hakları, demokrasi ve hukukun üstünlüğü konusunda mevcut hukuk sisteminin uyumunu koruma yaklaşımıyla gelecekteki yapay zekâ düzenlemesinin hazırlanmasına katkı sunmayı ve bunu bağlayıcı enstrümanlar üzerine inşa ederek, bir bağlama oturtarak ve gelecekteki hukuk sistemi için temel düzenleyici ilkeler oluşturarak yapmayı amaçlamaktadır.

 

Orijinal dokumana aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://rm.coe.int/cahai-ai-regulation-publication-en/1680a0b8a4

Yapay Zeka Çözümleri İçin Veri Mahremiyeti İlkeleri

 

Yapay Zeka Çözümleri İçin Veri Mahremiyeti İlkeleri

Kasım 2020

 

Amaç

  1. Bu Kılavuz’un amacı, uygulamalı Bilgi ve İletişim Teknolojileri kapsamında geliştirilen yapay zeka çözümleri bağlamında kişisel ve kişi ile ilgili bilgilerin kullanımına ilişkin yol gösterici ilkeler sağlamak; hükümetler ve şirketler tarafından yapay zeka ile veri işlenmesinde meşru bir temelin önemini vurgulamaktır.
  2. Bu Kılavuz, özellikle yerel düzeyde uygulanacak olan yapay zeka çözümlerine ilişkin veri koruma standartlarında ortak uluslararası asgari bir temel oluşturmayı ve yapay zeka çözümleri açısından mahremiyet hakkının nasıl korunabileceğine dair devam eden tartışmalarda bir referans noktası olmayı amaçlamaktadır.
  3. Yapay zeka çözümleri, tüm yaşamımızı etkileyen kararlar vermek veya yol göstermek üzere tasarlanmaktadır. Bu nedenle, yapay zeka çözümleri şu anda toplum içinde geniş tartışmalara tabidir. Bu tartışma konuları -ayrımcılık yapmama dahil ahlaki, etik ve toplumsal sorunlar- hala çözülmeyi beklemektedir. Yapay zeka çözümleri için veri mahremiyetinin temelleri bu Kılavuz’un odak noktasıdır.
  4. Bu Kılavuz, İnsan Hakları Evrensel Beyannamesi’ne dayanmakta ve onun ruhunu ve anlayışını yansıtmaktadır. Yapay zeka çözümleri geliştirilirken veya kullanılırken, her şeyden önce Madde 7 (ayrımcılık yapmama) ve Madde 12 (mahremiyet hakkı) dikkate alınacaktır. Bu maddelerin konusu ve değeri Medeni ve Siyasi Haklara İlişkin Uluslararası Sözleşmesi’nin 2. ve 3. maddeleri (ayrım gözetmeme) ve 17. maddesinde (gizlilik) bulunmakta ve bunlar Sözleşme’yi onaylayan ülkelerin yükümlülüklerini oluşturmaktadır.

Kapsam 

  1. Bu Kılavuz, kamu ve özel sektör de dahil olmak üzere tüm sektörlerde yer alan yapay zeka çözümlerindeki veri işleme faaliyeti için geçerlidir. Bu bağlamda veri işleme, bir yapay zeka çözümünün tasarımı, geliştirilmesi, işletilmesi ve hizmet dışı bırakılması anlamına gelmektedir.
  2. Bu Kılavuz, yapay zeka çözümlerindeki tüm veri sorumluları için geçerlidir. Bu bağlamda veri sorumlusu, her biri kendi özel vazifesinde tasarımcı, geliştirici veya operatör anlamına gelmektedir.
  3. Bu Kılavuz, ilgili kişilere daha fazla, daha geniş veya herhangi bir şekilde daha iyi haklar, koruma ve / veya çözümler sağlayan herhangi bir yasayı sınırlamamakta veya etkilememektir. Bu Kılavuz, veri mahremiyetiyle ilgili veri sorumluları ve veri işleyenler üzerinde daha yüksek, daha geniş veya daha katı yükümlülükler getiren herhangi bir yasayı sınırlamamakta veya etkilememektedir.
  4. Bu Kılavuz, tamamen özel, kurumsal olmayan veya hane halkı ile ilgili faaliyetler bağlamında bireyler tarafından gerçekleştirilebilecek yapay zeka çözümlerine uygulanmamaktadır.

 

(Taslak Kılavuz 2 Kasım 2020 itibariyle yoruma kapatılmıştır.)

 

Taslak Kılavuzun orijinaline buradan ulaşabilirsiniz:

https://www.ohchr.org/Documents/Issues/Privacy/SR_Privacy/2020_Sept_draft_data_Privacy_guidelines.pdf

Yapay Zeka Kullanımından Kaynaklı Ayrımcılığı Önleme

 

Yapay Zeka Kullanımından Kaynaklı Ayrımcılığı Önleme

 

Eşitlik ve Ayrımcılık Yapmama Komitesi
Raportör:  Christophe LACROIX, Belçika, 2020

 

Özet

Yapay zeka (YZ), otomatik karar verme süreçlerinin büyük ölçüde kalitesini artırarak verimlilik açısından fırsatlar yaratmaktadır – ancak buna paralel olarak, ayrımcılığı devam ettirebilmekte ve şiddetlendirebilmektedir. YZ’nin kamu ve özel sektör kullanımlarının ayrımcı bir etkiye sahip olduğu zaten göz önündeyken, bilgi akışı aşırılıkları ön planda tutma ve nefreti teşvik etme eğilimindedir. Önyargılı veri kümelerinin kullanımı, insan haklarını koruma ihtiyacına entegre olamayan tasarım, algoritmaların şeffaf olmaması ve etkileri bakımından hesap verebilirlik eksikliği ve yapay zeka ekiplerinde çeşitlilik eksikliği; hepsi bu olguya katkıda bulunmaktadır. 

Devletler, yapay zekanın toplumda ayrımcı bir etkiye sahip olmasını önlemek için harekete geçmeli ve bu alanda uluslararası standartlar geliştirmek için birlikte çalışmalıdır.

Parlamentolar ayrıca yapay zeka tabanlı teknolojilerin kullanımını denetlemede ve kamu denetimine tabi olmasını sağlamada aktif bir rol oynamalıdır. Ayrımcılıkla mücadelede yerel mevzuat gözden geçirilmeli ve YZ kullanımından kaynaklı ayrımcılığa uğrayan mağdurların etkili kanun yoluna erişimi sağlanmalı ve ulusal eşitlik kurumu, YZ tabanlı teknolojilerin etkileriyle başa çıkmak üzere donanımlı hale getirilmelidir.

Eşitliğe saygı ve ayrımcılık yapmama, en başından itibaren YZ tabanlı sistemlerin tasarımına entegre edilmeli ve kullanımdan önce test edilmelidir. Kamu ve özel sektör, teknoloji araştırmalarında ve mesleklerde çeşitliliği ve disiplinler arası yaklaşımları aktif bir şekilde teşvik etmelidir.

 

Raporun orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

doc.%2015151.pdf erişimi için tıklayın

Güvenilir YZ için Değerlendirme Listesi

 

Güvenilir Yapay Zeka için Değerlendirme Listesi

 

European AI Alliance | FUTURIUM | European Commission

AB Komisyonu

YZ Üst Düzey Uzman Grubu

Ağustos 2020

 

Temel Haklar

Temel haklar, insan onuru ve ayrımcılık yasağı gibi hakların yanı sıra birkaç örnek vermek gerekirse veri koruma ve mahremiyetle ilgili hakları da kapsamaktadır. Bu Değerlendirme Listesi ile bir YZ sisteminin öz değerlendirmesi yapılmadan önce, temel haklar etki değerlendirmesi (FRIA) yapılmalıdır.

Bir FRIA Avrupa İnsan Hakları Sözleşmesi (AİHS), protokolleri ve Avrupa Sosyal Şartı ve Şart’taki belirli maddelere ilişkin sorular içerebilir.

1.YZ sistemi, aşağıdaki hususlardan herhangi birine (kapsamlı olmayan şekilde) dayanarak insanlara karşı potansiyel olarak olumsuz ayrımcılık yapıyor mu: cinsiyet, ırk, renk, etnik veya sosyal köken, genetik özellikler, dil, din veya inanç, siyasi veya başka herhangi bir görüş, ulusal bir azınlığa üyelik, mülkiyet, doğum, engellilik, yaş veya cinsel yönelim?

YZ sisteminin geliştirme, devreye alma ve kullanım aşamaları sırasında olası olumsuz ayrımcılığı (önyargı) test etmek ve izlemek için süreçler oluşturdunuz mu?

YZ sistemindeki olası olumsuz ayrımcılığı (önyargı) ele almak ve düzeltmek için süreçler oluşturdunuz mu?

2.YZ sistemi çocuk haklarına saygı duyuyor mu, örneğin çocuğun korunması ve çocuğun yüksek yararını dikkate alınıyor mu?

YZ sistemi tarafından çocuklara verilen olası zararı ele almak ve düzeltmek için süreçler oluşturdunuz mu?

YZ sisteminin geliştirilmesi, devreye alınması ve kullanılması aşamalarında çocuklara verilecek olası zararları test etmek ve izlemek için süreçler oluşturdunuz mu?

3.YZ sistemi, bireylerle ilgili kişisel verileri GDPR uyarınca koruyor mu?

Veri koruma etki değerlendirmesine duyulan ihtiyacı ayrıntılı olarak değerlendirmek için bunların amaçlarına göre işleme operasyonlarının gerekliliği ve orantılılığının bir değerlendirmesi dahil, YZ sisteminin geliştirme, devreye alma ve kullanım aşamaları ile ilgili süreçler oluşturdunuz mu?

YZ sisteminin geliştirme, devreye alma ve kullanım aşamalarıyla ilgili olarak, kişisel verilerin korunmasını sağlamak için koruma önlemleri, güvenlik önlemleri ve mekanizmalar dahil olmak üzere riskleri ele almak adına öngörülen önlemleri uygulamaya koydunuz mu?

4.YZ sistemi ifade ve bilgi edinme özgürlüğüne ve / veya toplantı ve dernek kurma özgürlüğüne saygı duyuyor mu?

Yapay zeka sisteminin geliştirme, devreye alma ve kullanım aşamalarında ifade ve bilgi edinme özgürlüğü ve / veya toplantı ve dernek kurma özgürlüğüne yönelik olası ihlalleri test etmek ve izlemek için süreçler oluşturdunuz mu?

Yapay zeka sisteminde ifade ve bilgi edinme özgürlüğü ve / veya toplantı ve dernek kurma özgürlüğüne yönelik olası ihlalleri ele almak ve düzeltmek için süreçler oluşturdunuz mu?

 

Dokümanın orijinalini aşağıdaki bağlantı adresinden bulabilirsiniz:

https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=68342

 

Yapay Zeka Raporu: Mükemmellik ve güven konusunda Avrupa yaklaşımı

 

Yapay Zeka Raporu

Mükemmellik ve güven konusunda Avrupa yaklaşımı

Brüksel, 19.02.2020

Özet

Yapay zeka (YZ) hızla gelişiyor. Sağlık hizmetlerini iyileştirerek (örn. tanıyı daha kesin hale getirmek, hastalıkların önlenmesini sağlamak),tarım verimliliğini artırarak, iklim değişikliğinin azaltılmasına ve adaptasyonuna katkıda bulunarak, öngörücü bakım yoluyla üretim sistemlerinin verimliliğini yükselterek, Avrupalıların güvenliğini artırarak ve hayal edebileceğimiz diğer birçok yolla hayatımızı değiştirecek. Aynı zamanda, yapay zeka, belirsiz karar verme, cinsiyete dayalı veya diğer ayrımcılık durumları, özel hayatımıza izinsiz girme veya suç işleme amaçlarıyla kullanılma gibi bir dizi potansiyel risk içeriyor.

Sert küresel rekabetin arka planı karşısında, Nisan 2018’de sunulan YZ için Avrupa stratejisini temel alan sağlam bir Avrupa yaklaşımına ihtiyaç duyuluyor. YZ’nin fırsatlarını ve zorluklarını ele almak için AB YZ’nin gelişimini ve kullanımını teşvik etmede Avrupa değerlerine dayalı olarak hareket etmeli ve kendi yolunu tanımlamalıdır.

Komisyon bilimsel atılım sağlamayı, AB’nin teknolojik liderliğini korumayı ve yeni teknolojilerin tüm Avrupalıların hizmetinde olmasını sağlamayı ve haklarına saygı göstererek hayatlarını iyileştirmeyi taahhüt ediyor.

Komisyon Başkanı Ursula von der Leyen, yapay zekanın insani ve etik etkileri konusunda eşgüdümlü bir Avrupa yaklaşımı ve büyük verinin inovasyon için daha iyi kullanılması konusundaki Kılavuzu duyurdu.

Böylece Komisyon, YZ’yi kavramayı teşvik etmek ve bu yeni teknolojinin belirli kullanımlarına ilişkin riskleri ele almak şeklinde düzenleyici ve yatırım odaklı bir yaklaşımı desteklemektedir. Bu Rapor’un amacı, bu hedeflere nasıl ulaşılacağına dair politika tercihlerini belirlemektir. Askeri amaçlarla YZ’nin geliştirilmesine ve kullanılmasına değinmez. Komisyon, Üye Devletleri, diğer Avrupa kurumlarını ve endüstriyi, sosyal ortakları, sivil toplum kuruluşlarını, araştırmacıları, genel olarak kamuoyunu ve ilgili tarafları da içeren tüm paydaşları, Rapor’a karşılık vermeye ve Komisyon’un gelecekte bu alanda vereceği kararlara katkıda bulunmaya davet ediyor.

Raporun tamamını aşağıdaki bağlantı adresinden erişebilirsiniz:

https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf

Yapay Zeka Kararlarını Açıklama

ICO & Alan Turing Enstitüsü

2 Aralık 2019

 

ICO ve Alan Turing Enstitüsü, yapay zeka (“YZ”) ile verilen kararları açıklama üzerine ortak istişare rehberini yayınladı. Bu doküman, YZ tarafından sunulan veya yardım edilen süreçleri, hizmetleri ve kararları bunlardan etkilenen kişilere açıklamaya yardımcı olmak için organizasyonlara pratik tavsiyeler vermeyi amaçlamaktadır.

Organizasyonlar giderek bireyler hakkındaki kararları desteklemek veya onlar hakkında kararlar vermek için YZ kullanmaktadır. Yaptığınız veya yapmayı düşündüğünüz bu ise, bu doküman size hitap etmektedir.

Rehberin gerçek dünyada pratikte uygulanabilir olmasını sağlamak istiyoruz, bu sayede YZ sistemlerini geliştirirken organizasyonlar bundan kolaylıkla yararlanabilir. Bu yüzden geri bildirimleriniz bizim için önemli.

Rehber üç bölümden oluşmaktadır. Uzmanlık seviyenize ve organizasyonunuzun yapısına göre, bazı bölümler sizin için diğerlerinden daha ilintili olabilir. Sizin için en faydalı kısımları seçebilirsiniz.

Dokümana ilişkin anketimiz size üç bölümün tamamına yönelik sorular yöneltecek; istediğiniz soruya cevap verebilirsiniz.

Bölüm 1: Açıklanabilir YZ’nin temelleri, anahtar kavramları tanımlamakta ve birkaç farklı açıklama türünü ana hatlarıyla belirtmektedir. Bu kısım, YZ sistemlerinin geliştirilmesinde yer alan tüm personeller için geçerli olacaktır.

Bölüm 2: Açıklanabilir YZ, verilen YZ kararlarını açıklama ve kişilere bu konuda açıklamalar yapma pratikleriyle size yardımcı olmaktadır. Bu öncelikle organizasoyonunuzdaki teknik ekipler için faydalı olmakla beraber, özellikle DPO’nuz ve uyum ekibiniz için de kullanışlı olacaktır.

Bölüm 3: Organizasyonunuz için açıklanabilir YZ’nin anlamı, YZ’den etkilenen kişilere anlamlı açıklamalar sağlayacak şekilde kurulduğunuzdan emin olmak için uygulayabileceğiniz çeşitli rollere, politikalara, prosedürlere ve belgelere sahip olmaktır. Bu öncelikle organizasyonunuzun üst düzey yönetim ekibine yönelik olmakla birlikte DPO’nuz ve uyum ekibiniz için de faydalı olacaktır.

 

Rehbere ilişkin düşüncelerinizi [email protected] adresine iletebilirsiniz.

 

Rehberin orojinalini ve bağlantı adresini aşağıda bulabilirsiniz: 

https://ico.org.uk/media/about-the-ico/consultations/2616441/explain-about-this-guidance.pdf

Federal Hükümet’in Yapay Zeka Stratejisi için Veri Etiği Komisyonu’nun Önerileri

Federal Hükümet’in Yapay Zeka Stratejisi için Veri Etiği Komisyonu’nun Önerileri

Image result for daten ethik kommission"

9 Ekim 2018

Veri Etiği Komisyonu, Federal Hükümet’in yapay zeka konusunda bir strateji geliştirmesinden memnuniyet duymaktadır. Veri Etiği Komisyonu 4 ve 5 Eylül 2018 tarihli kurucu toplantısında, Federal Hükümet’in böyle bir strateji için oluşturduğu politika dokümanı üzerine tartıştı. Komisyon, Federal Hükümet’in stratejisine aşağıdaki hususların eklemesini tavsiye etmektedir:

  • “Yapay zekayı geliştirme ve uygulama süreci boyunca liberal demokrasimize dayalı etik ve yasal ilkeleri koruma” hedefi;
  • “Bireylerin ve toplumun bir bütün olarak, bilgi toplumunda eleştirel şekilde anlama ve yansıtma yeteneğini artırma” eylem alanı

I.

“Yapay zeka” (YZ) kavramı medyada ve genel olarak söylemlerde farklı şeylere gönderme yapmak için kullanılmaktadır. Federal Hükümet’in politika dokümanı, dokümanda yer verilen teknolojileri açıkça belirtmemektedir. Dolayısıyla bu bilgi eklenmelidir.

Bu bağlamda, “yapay zekayı” teknolojiler ve onların potansiyel olarak otomatikleştirilmiş uygulamalarında kullanılabilecek bir sonuca ulaşmak için, insan zekası üzerine modellenmiş karmaşık yöntemler kullanarak çok büyük ve heterojen veri kümelerini işleyen uygulamalar bakımından ortak bir terim olarak anlamaktayız. Bilgisayar biliminin bir parçası olarak YZ’nin en önemli yapı taşları alt sembolik örüntü tanıma, makine öğrenmesi, bilgisayarla işlenmiş bilginin temsili ve sezgisel arama, çıkarım ve planlamayı kapsayan bilgi işlemedir.

Bugün YZ kullanan uygulama yelpazesi zaten çok büyüktür. Bu uygulamalar seyahat rotalarının basit bir şekilde hesaplanmasından imge ve dil tanıma ve oluşturmaya, karar ve tahminlerde bulunma ve etki yaratma için oldukça karmaşık ortamlara kadar çeşitlilik göstermektedir. En önemli uygulamalar, dil ve görüntü tanıyan sistemleri; işbirliğine dayalı robotlar ve diğer otomatik sistemleri (araba, uçak, tren); çok etmenli sistemleri; sohbotları kapsamaktadır. Yaşamın tüm alanlarını etkileyecek ve daha geniş eylem alanlarında daha fazla insan faaliyetini otomatik olarak (kısmen) değiştirebilecek ve çok daha iyi performans gösterebilecek otonom ve kapsamlı uygulamaların geliştirilmesini beklemekteyiz.

Bu bağlamda ortaya çıkan etik ve yasal önemi olan sorular ayrıca, uzman sistemler olarak da tanımlanan, algoritmalara dayalı basit kural sistemleriyle de ilgilidir. Bunlar, genellikle anlaşıldığı gibi YZ’yi oluşturmamaktadır. Federal Hükümet’in YZ’ye yönelik stratejisinin de bu süreçleri kapsaması önemlidir.

II.

Muhtemel YZ uygulamalarının çeşitliliği ve ilgili teknolojilerin karmaşıklığı, özellikle onları etik ve yasalara uygun olarak tasarlamayı ve bu uygunluğu düzenlemeyi zorlaştırmaktadır. Gittikçe daha fazla karar alma süreci, insanlardan eylem konusu YZ gömülü sistemlere doğru değişirken, YZ’nin geliştirilmesinden, programlanmasından, tanıtılmasından, kullanılmasından, yönlendirilmesinden, izlenmesinden ve dış incelemesinden kimin sorumlu olduğuna dair yeni sorular ortaya çıkmaktadır. Ayrıca, spesifik işleyiş, girilen ve / veya uygulamayı “eğitmek” için kullanılan verilerin seçimine ve kalitesine bağlıdır. Bazı veri türlerini basitçe görmezden gelmek ve kötü hazırlanmış verileri kullanmak, sistematik ayrımcılığa yol açan etik sonuçları barındırabilir ya da çoğulluğa karşı çıkacak şekilde sonuçlanabilir. Bu bağlamda, ayrıca temel haklara zarar vermeksizin YZ teknolojilerinde işlenebilecek veri miktarını artırmak için, modern anonimleştirme yöntemlerini araştırmaya ve sentetik eğitim verilerini oluşturmaya daha fazla destek verilmelidir,

Bazı YZ uygulamalarında ihtiyaç duyulan veriler, aynı zamanda yüksek düzeyde teknolojik uzmanlığa sahip az sayıda şirket arasında yoğunlaşmıştır. Bu, kişisel olmayan verilere “özel ellerde” erişimin kanunla düzenlenmesi gerekip gerekmediği sorusunu gündeme getirmektedir.

Son olarak, demokratik süreçle ilgili olarak, insan davranışını giderek daha inandırıcı bir şekilde taklit edebilen teknolojinin, sosyal eğilimleri ve siyasi görüşleri etkilemek için de kolayca kullanılabileceği belirtilmelidir.

“Tasarım yoluyla etik, tasarımda etik ve tasarım için etik” yaklaşımını ve “Avrupa yapımı YZ” markasını kullanarak, YZ geliştirme ve uygulama süreci boyunca etik hususlara değinilmelidir. Bu YZ araştırma, geliştirme ve üretiminin yanı sıra YZ tabanlı uygulamaların kullanımı, işletilmesi, izlenmesi ve yönetilmesini içermektedir. Veri Etiği Komisyonu için etik, öncelikle sınırların tanımı anlamına gelmemektedir; aksine, etik düşünceler gelişim sürecinin başından itibaren ele alındığında tavsiye edilebilir ve istenen uygulamaları destekleyerek tasarıma güçlü bir katkı sağlayabilirler.

Teknoloji, kullanıcılar ve toplum (“YZ ekosistemi”) arasındaki etkileşimleri de göz önünde bulundurmak gerekir. Bu ekosistem içerisinde, yeterli şeffaflık, hesap verebilirlik, ayrımcılıktan kurtulma özgürlüğü ve ek insan katkısı olmadan gerçekleştirilebilecek kararları hazırlayan veya sonuç çıkaran bu otomatik süreçleri gözden geçirme kabiliyetinin sağlanması gerekmektedir. Algoritma odaklı işlemlerin kullanımında ve sonuçlarında güven oluşturmanın tek yolu budur. Politika dokümanı (s. 9), kamu yönetiminde kullanılan algoritmalar için bu önlemleri haklı olarak talep etmektedir. Ancak aynı ilkeler, özel sektöre de uygun bir şekilde uygulanmalıdır. Kısmen bağımsız üçüncü kişiler ve kısmen de otomatikleştirilmiş süreçlerle desteklenebilecek kalite güvence önlemlerine de ihtiyaç vardır. Ayrıca, etkilenen kişilerin ve denetim otoritelerinin, etkili yasal yollara erişimin yanı sıra, müdahale etmek için uygun ve etkili olanaklara sahip olmalarını sağlamak da gereklidir.

YZ ile sorumlu bir şekilde başa çıkmak için en önemli standart, özellikle de Anayasadan önce, temel haklar, hukukun üstünlüğü ilkeleri, refah sistemi ve demokrasidir. Bu aynı zamanda, bireylerin kendi verilerini belirleme hakkını, bu da şirketlerin verilerini nasıl kullandıklarını müşterilere bildirmelerini; bir uygulamanın kişisel kullanımı ile ilgili bireysel kullanıcı kararlarına saygıyı; haksız ayrımcılığa karşı korumayı; ve makine kararlarını etkili biçimde gözden geçirme imkanını içermektedir. Ayrıca, YZ tabanlı teknolojilerin etik, yasal ve ekonomik ilkelere göre geliştirilmesi ve uygulanması konusundaki sorumluluğun derecesini açıkça tanımlayan yasal hükümlere de ihtiyacımız bulunmaktadır. Bu aynı zamanda YZ ile ilgili olarak tazminat ve kamu hukuku yükümlülüklerinin uygulanması için de geçerlidir.

Bu teknolojilerin tasarlanması ve uygulanması sürecine etik ve yasal ilkeler eklemek için gerekli olan çok çeşitli kontrol mekanizmaları düşünülebilir. Bu mekanizmalara demokratik bir süreçte ulusal ve Avrupa düzeyinde karar verilmelidir. YZ’nin devlet aktörleri tarafından kullanımı özel gözetim altında tutulmalıdır.

Denetim olanakları arasında, Anayasa, sertifikasyon ve standartlara uygun başvuruların hedefli olarak tanıtılması, resmi denetleme yetkisi ve kurumların YZ ve bağlayıcı yasalarla ilgili temel haklar ve etik kurallara uyması yer almaktadır.

Bunu göz önünde bulundurarak Veri Etiği Komisyonu, Federal Hükümet’in yapay zeka konusundaki stratejisinin, YZ geliştirme ve uygulama sürecinde tüm etik ve yasal ilkeleri desteklemesini, talep etmesini ve stratejinin bunu ek bir amaç olarak içermesini tavsiye etmektedir. Stratejinin eylem alanları bu amaç göz önünde bulundurularak tanımlanmalıdır.

III.

Her türlü bilgi ve teknoloji toplumun her seviyesini ve yaşamımızı daha önce hiç bilinmediği ölçüde etkilemektedir. Demokrasinin yapısal bağlantılı unsurları olarak sosyal etkileşimleri ve söylemi giderek daha fazla etkilemektedirler. YZ için yeni uygulamaların hızlı gelişimi aynı zamanda sürekli bir eleştirel inceleme süreci gerektirmektedir. Bu derin ve çeşitli değişiklikler sadece bireysel ifadeler için değil, aynı zamanda toplumdaki yaşamımız için de önemlidir. Artık her zamankinden daha gerekli olan özgürlüğü ve demokrasiyi güçlendiren bir.yaklaşımda bulunmaktadır. Diğer şeylerin yanı sıra, bireylerin ve kurumsal aktörlerin yeterli dijital ve medya okuryazarlığı kazanabilecekleri ve teknik yeniliklerle nasıl başa çıkacakları konusunda eleştirel olarak düşünebilecekleri bir çerçeveye ihtiyacımız bulunmaktadır.

Federal Hükümet’in politika dokümanı, politika yapıcıların yanı sıra araştırma topluluğu, sivil toplum, iş dünyası ve sanayi temsilcileri ile sürekli bir diyalog içinde Almanya’da güveni artıran bir YZ kültürü oluşturmak için yapay zeka konusundaki stratejisini uygulamaya çağırmaktadır. Veri Etiği Komisyonu bu önlemlerin önemini vurgulamaktadır.

Aynı zamanda YZ stratejisine ayrı bir eylem alanı eklemeyi de önermekteyiz: “Bireylerin ve toplumun bir bütün olarak, bilgi toplumunda eleştirel şekilde anlama ve yansıtma yeteneğini artırma”. Bu, bireylerin ve kurumsal aktörlerin yeterli dijital ve medya okuryazarlığı kazanmalarını ve YZ ile nasıl başa çıkacaklarını eleştirel olarak yansıtma yeteneği edinmelerini sağlamak içindir. Bu yetenekler, toplumun YZ kullanımına duyulan güveni arttırmaya yardımcı olabilecek objektif, bilinçli ve ayrıntılı bir inceleme yapması için esastır. Bununla birlikte Veri Etiği Komisyonu, şu anda Federal Hükümet’in politika dokümanında tanımlandığından daha geniş bir yaklaşımın gerekli olacağına inanmaktadır.

Dijital ve medya okuryazarlığını ve eleştirel yansımasını teşvik etmenin yolları, kampanyalarda kapsamlı, nesnel bilgiler sunmaktan, okulda ve yetişkin eğitim kurslarında medya okuryazarlığı öğretmekten, yasaları ve teknoloji dünyasında etik ilkeleri uygulama için teknolojilerin kullanılmasına ve geliştirilmesine kadar uzanmaktadır. Medya ve medya denetim kurumlarının da bu bağlamda oynayacakları önemli bir rol vardır: Rolleri sadece yeni teknolojiler hakkında toplumu bilgilendirmek ve teknolojik gelişmeyi eleştirel bir şekilde incelemek değil, aynı zamanda tartışma için yeni forumlar sağlamaktır.

Teknoloji etki değerlendirmesine yapılan yatırım, toplumumuzda YZ gibi teknolojilerin uygulandığı ölçüde artmalıdır. Örneğin, veri taşınabilirliği, birlikte çalışabilirlik ve tüketiciye olanak sağlayan teknolojiler konusunda daha fazla araştırma ve geliştirme yapılmalıdır; bunlar, birincil amacı tüketicilerin günlük kararlarında yardımcı olmak olan YZ uygulamalarını içermektedir.

Ve devletin, güven sağlayan çerçeve koşullarını oluşturma ve uygulama sorumluluğu ile kullanıcılar ve bir yandan yeni teknolojilerden etkilenen diğerlerinin özgürlük, otonomi ve sorumluluğu ile pazar gücü ve rekabet arasında bir denge bulunmalıdır. YZ’nin geliştirilmesinde büyük rol oynayan şirketlerin artan ekonomik gücü, araştırma ve sivil toplumun tam olarak bu şirketlerden gelen fonlara bağımlı hale gelmesine neden olmamalıdır. Hükümet, araştırma ve sivil toplumun bu önemli toplumsal tartışmaya bağımsız ve yetkinlik temelli katkılar sunmalarını sağlamalıdır.

YZ de dahil olmak üzere modern teknolojiler, belirli işlerdeki insanları geliştirip belirginleştirdikçe, sadece yeni beceriler kazanmakla kalmaz aynı zamanda mevcut becerileri de kaybederiz. Bu, gelecek nesillerin bağımsız kalmaları için belirli becerilerin korunması ve geliştirilmesi konusundaki sorumluluğumuzun tartışılmasını gerektirmektedir. Bu nedenle, tüm toplumun hakimiyeti için tanımı ve gereklilikleri de tartışmamız gerekmektedir.

Bu nedenle Veri Etiği Komisyonu, bireylerin ve toplumun bir bütün olarak, bilgi toplumunda eleştirel şekilde anlama ve yansıtma yeteneğini geliştirmek için uygun çerçeve koşulları yaratmaya odaklanan başka bir eylem alanını stratejiye eklemeyi önermektedir.

IV.

İlerleme ve sorumlu inovasyon, toplumun refahına büyük katkı sağlamaktadır. Karşılamamız ve teşvik etmemiz gereken muazzam fırsatlar sunmakta ama aynı zamanda riskleri de bulunmaktadır. Bu fırsatlar, insanların bireysel haklarının korunması ve sosyal bütünlüğün güçlendirilmesi konusunda her şeyden önce özgürlük, adalet ve refahın sürekliliğini sağlayabilir. Bunu akılda tutarak, Veri Etiği Komisyonu bu dokümanın başında belirtilen iki maddeyi Federal Hükümet’in yapay zeka stratejisine eklemesini şiddetle tavsiye etmektedir.

Raporun orijinaline aşağıdaki bağlantı adresinden ulaşabilirsiniz:

https://www.bmjv.de/SharedDocs/Downloads/DE/Ministerium/ForschungUndWissenschaft/DEK_Empfehlungen_englisch.pdf?__blob=publicationFile&v=3

Sivil ve Askeri Dronlar

 

Sivil ve Askeri Dronlar

 

Avrupa Parlamentosu, Ekim 2019

 

ÖZET

Genellikle bugünün en önemli yıkıcı teknolojilerinden biri olarak sınıflandırılan dronlar, iş modellerini, mevcut yasaları, emniyet ve güvenlik standartlarını, taşımacılığın geleceğini ve modern savaşı temelden yeniden ele alarak gerçekten bu sıfatı hak etmektedir. Avrupa Birliği (AB), dronların sunduğu fırsatların farkında ve onları havacılık tarihinde yeni bir bölüm olarak görmektedir. AB havacılık stratejisi, yeni ve gelişen teknolojilerin araştırılması için rehberlik etmekte ve rekabetçi AB havacılık endüstrisini sürdürmek için dronların iş dünyasına ve topluma entegrasyonunu sağlamaktadır.

Böcek boyutundaki ağırlıktan birkaç tona kadar değişen dronlar, birden fazla kullanım alanına sahiptir; çekim yapma, tarım ve tıbbi yardımdan arama kurtarma operasyonlarına kadar çok çeşitli işlevleri gerçekleştirebilmektedir. Sivil ve askeri dronların avantajları arasında göreceli düşük maliyetleri, ulaşılması, daha fazla iş üretkenliği ve insan hayatı riskini azaltma kapasitesi bulunmaktadır. Bu özellikler kitlesel ticarileşme ve askeri planlama entegrasyonlarına yol göstermektedir. Yine de düzenleme ve gözetim zorlukları özellikle çift kullanımlı dronlar -kolayca silahlı dronlara dönüştürülebilen veya suç işleme amaçları için silahlandırılabilen sivil dronlar- özelinde devam etmektedir.

AB düzeyinde, Avrupa Komisyonu, güvenli insansız hava araçları operasyonlarında uyumlaştırılmış bir yasal düzenleme çerçevesinin sağlanmasına yardımcı olmak için sivil dronları ve Avrupa Havacılık Güvenliği Ajansını düzenleme yetkisine sahiptir. En son AB mevzuatı dronlar için şimdiye kadarki en yüksek güvenlik standartlarına ulaştı. Yasa koyucular, devlet ve üreticiler için diğer bir zorluk da vatandaşların ve tüketicilerin güvenini arttırma ihtiyacıdır. Dronların kötüye kullanımlarının, başarı, şeffaflık ve etkili iletişimden daha çok halkın önünde olduğu düşünülürse, vatandaşları yaklaşmakta olan dron çağına hazırlamak  bir zorunluluktur.

 

Orijinal dokümana aşağıdaki bağlantıdan ulaşabilirsiniz:

http://www.europarl.europa.eu/RegData/etudes/BRIE/2019/642230/EPRS_BRI(2019)642230_EN.pdf

 

1 2 3