Makul Çıkarım Hakkı: Büyük Veri ve YZ Çağında Veri Koruma Kanunu Yeniden Düşünmek

 

Makul Çıkarım Hakkı:  

Büyük Veri ve YZ Çağında Veri Koruma Kanunu Yeniden Düşünmek

 

 

Sandra Wachter  & Brent Mittelstadt

 

Oxford Üniversitesi- Oxford Internet Enstitüsü

 

13 Eylül 2018

 

 

 

Özet

 

“Büyük veri analitiği ve yapay zeka (YZ), bireylerin davranışları, tercihleri ve özel yaşamları hakkında sezgisel olmayan, doğrulanamaz çıkarımlar ve tahminler çizmektedir. Bu çıkarımlar tahmin edilemez değere sahip, son derece çeşitli ve zengin özellikli verilere dayanmakta; ayrıca ayrımcı, yanlı ve istilacı karar alma için yeni fırsatlar yaratmaktadır. Algoritmik hesap verebilirlik ile ilgili hususlar, genellikle bu teknolojilerin hakkımızda öngöremediğimiz, anlayamadığımız veya aksini ispat edemeyeceğimiz, mahremiyete saldıran ve doğrulanamayan çıkarımlar çizmesi ile ilgili endişeleri içermektedir. Veri koruma kanunu, insanların mahremiyetini, kimliğini, itibarını ve özerkliğini korumak içindir; ancak şu anda ilgili kişileri çıkarımsal analitiğin yeni risklerinden korumakta yetersiz kalmaktadır. Avrupa’daki geniş kişisel veri kavramı, bir bireye atıfta bulunan ya da etki eden çıkarımları, tahminleri ve varsayımları içerecek şekilde yorumlanabilir. Kişisel veriler göz önüne alındığında, bireylere veri koruma kanunu kapsamında çok sayıda hak tanınabilir. Bununla birlikte, çıkarımların hukuki durumu hukuk biliminde ağır bir şekilde tartışılmakta ve Madde 29 Çalışma Grubu ile Avrupa Adalet Divanı’nın görüşleri arasındaki tutarsızlıklar ve çelişkiler ile işaretlenmektedir.

Bu makalede de gösterdiğimiz gibi, bireylerin kişisel verilerinin, bunlarla ilgili çıkarımlar yapmak için nasıl kullanıldığı konusunda çok az kontrol ve denetim sağlanmaktadır.Diğer kişisel veri türleri ile karşılaştırıldığında, çıkarımlar Genel Veri Koruma Tüzüğü’nde (GDPR) etkin bir şekilde “ekonomi sınıfı” kişisel veridir.İlgili kişilerin kişisel verilerini bilme(madde 13-15), düzeltme(madde 16), silme(madde 17), bunlara itiraz etme(madde 21) veya aktarma(madde 20) hakları, çıkarımlar söz konusu olduğunda önemli ölçüde azalır ve çoğu zaman veri sorumlusunun çıkarları ile (örneğin ticari sırlar, fikri mülkiyet hakları) daha büyük bir dengeyi gerektirir. Benzer şekilde, GDPR, hassas çıkarımlara (Madde 9) veya çıkarımlarla ilgili zorluklara çözüm bulmada veya bunlara dayanan önemli kararlara karşı yetersiz koruma sağlamaktadır (Madde 22 (3)).

Bu durum tesadüfi değildir.Mahkeme içtihatlarında, Avrupa Adalet Divanı (ECJ; Bavarian Lager, YS. ve M. ve S. ve Nowak) ve Avrupa Adalet Divanı Sözcüsü (AG; YS. ve M. ve S. ve Nowak), veri koruma kanununun işlenmekte olan girdi kişisel verilerinin meşruiyetini değerlendirme ve düzeltme, engelleme ya da silme alanını sürekli olarak kısıtlamıştır. Eleştirel olarak, Avrupa Adalet Divanı aynı şekilde, veri koruma kanununun kişisel verilerin yer aldığı kararların ve karar verme süreçlerinin doğruluğunu sağlamak veya bu süreçleri tamamen şeffaf hale getirmek için tasarlanmadığını açık bir şekilde belirttmektedir.

Avrupa’daki zayıf tartışmalar, çıkarımlara karşı ilgili kişilere sağlanan korumayı daha da zayıflayacaktır. Gizlilik korumasına (ePrivacy Tüzüğü ve AB Dijital İçerik Direktifi) değinen mevcut politika önerileri, GDPR’ın çıkarımlarla ilgili hesap verebilirlik boşluklarını kapatamaz. Aynı zamanda, GDPR ve Avrupa’nın yeni Telif Hakkı Direktifi, ilgili kişilerin kişisel veriler üzerindeki haklarını sınırlandırarak veri madenciliği, bilgi keşfi ve büyük veri analitiğini kolaylaştırmayı amaçlamaktadır.Ve son olarak, yeni Ticaret Sırları Direktifi, bu süreçlerin çıktılarına (ör. modeller, algoritmalar ve çıkarımlar) bağlı ticari çıkarların kapsamlı bir şekilde korunmasını sağlar.

Bu yazıda, şu anda yüksek riskli, mahremiyete saldıran ya da itibara zarar verici olan ve öngörücü ya da kanaat temelli olma anlamında düşük doğrulanabilirliğe sahip çıkarımların oluşturduğu hesap verebilirlik açığının kapatılmasına yardımcı olmak için ihtiyaç duyulan yeni bir veri koruma hakkı olarak “makul çıkarım hakkı”nı tartışıyoruz. Algoritmaların bireyler hakkında ‘yüksek risk çıkarımları’ çizdiği durumlarda, bu hak, bir çıkarımın makul olup olmadığının belirlenmesi için veri sorumlusu tarafından önceden tahmin edilen bir  gerekçelendirme yapılmasını gerektirecektir. Bu açıklama, (1) belirli verilerin neden çıkarımlar yapmak için uygun bir temel oluşturduğunu; (2) bu çıkarımların, seçilen işleme amacına veya otomatik karar türüne neden uygun olduğu ve (3) çıkarımları çizmek için kullanılan veri ve yöntemlerin doğru ve istatistiksel olarak güvenilir olup olmadığı ele alacaktır. Önceden tahminin gerekçelendirmesi, mantıksız çıkarımlara meydan okunmasını sağlayan ek bir aktüel mekanizma ile desteklenmektedir. Bununla birlikte, makul çıkarım hakkı, AB içtihadıyla uzlaştırılmalı ve IP ve ticari sırlar kanunu ile ifade özgürlüğü ve AB Temel Haklar Şartı’nın 16. Maddesi: bir işi yürütme özgürlüğü ile dengelenmelidir.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3248829

Büyük Veri Çağında Seçmen Mahremiyeti

 

Büyük Veri Çağında Seçmen Mahremiyeti

 

Ira Rubinstein

New York Üniversitesi – Bilişim Hukuku Enstitüsü

 

26 Nisan 2014

 

 

 

 

Özet

 

“Önceki pek çok seçim döneminde, büyük siyasi partiler için başkanlık kampanyaları ve diğer önemli seçimler, veriye odaklı hale gelmişti.  Başkanlık kampanya organizasyonları ve iki ana parti (ve onların veri danışmanları), her bir Amerikan seçmenine özgü olağanüstü ayrıntılı siyasi kayıtlar hazırlamakta ve bunların devamlılığını sağlamaktadır. Bu veritabanları, her biri yüzbinlerce veri noktasına sahip yüz milyonlarca bireysel kayıt içerir.Çünkü bu veriler bilgisayar ortamına uyarlanmıştır; adaylar, ucuz ve neredeyse sınırsız depolama, çok hızlı işleme ve ilginç seçmen kalıplarının veri madenciliğine girme kolaylığından yararlanır. 

Veri odaklı siyasi kampanyaların ayırt edici özelliği, siyasi aktörlerin, mikro hedefleme ile seçmenleri kaydetmesi, harekete geçirmesi, ikna etmesi ve seçim gününde ya da öncesinde oylamada daha iyi sonuçlar elde etmeyi hedeflemesidir. Seçmen mikro hedeflemesi, seçmenlerin, çevrimdışı ve çevrimiçi davranışlarının gözlemlenebilir örüntüleri ile adayı destekleme ve kendisi için oy kullanma olasılıkları arasındaki istatistiksel korelasyonlara dayanan, son derece kişiselleştirilmiş bir şekilde hedeflenmesidir. Başka bir deyişle, modern siyasi kampanyalar, yararlı ve beklenmedik durumların içyüzünün araştırılmasında büyük veri kümelerinin analizine ve genellikle “büyük veri” ifadesiyle özetlenen bir faaliyete dayanır. Büyük verilerin ABD seçimlerindeki önemine rağmen, veriye dayalı kampanyaların mahremiyetle ilgili etkileri, düzenlenmesi şöyle dursun, ayrıntılarıyla araştırılmamıştır bile. Aslında, siyasi kayıtlar çağdaş Amerikan yaşamında kişisel verilerin düzenlenmemiş en büyük kısmı olabilir.

Bu makale, bu dikkatsizliğe çözüm bulmayı amaçlamaktadır. Makale üç bölümden oluşmaktadır. Bölüm I, seçmen verilerinin ana kaynaklarının ilk kapsamlı analizini ve bu veriler için yasal koruma boşluğu bulunduğunu ve bağlantılı veri işleme faaliyetlerini önermektedir. Bölüm II, bireylerin hem tüketici hem de İnternet tabanlı faaliyetlerindeki mahremiyet çıkarlarını ve onların siyasi sürece katılımını; ayrıca bu analizlerin, bilgi gizliliği ve siyasi mahremiyetin geniş bir başlığı altında düzenlenmesini incelemektedir. Yani, birbiriyle ilişkili iki soru sorulmaktadır: ilki, durmak bilmeyen profilleme ve mikro hedeflemenin Amerikalı seçmenlerin mahremiyet alanını işgal edip etmediği (ve eğer öyleyse ne gibi zararlara neden olduğu) ve ikincisi, bu faaliyetlerin seçim sisteminin doğruluğunu ne ölçüde zayıflattığı.Ayrıca, siyasi aktörlerin, mahremiyetle ilgili endişeleri en aza indirmesinin üç sebebini de inceler: şeffaf veri uygulamalarının temel hususlarıyla çatışan mahremiyet konusundaki eğilim; en yüksek ticari gizlilik standartlarını takip ettiğini iddia ederken, tüm seçmen verileri gönüllü olarak temin edilmiş ya da güvenli bir şekilde tanımlanmış gibi ele alarak problemi rasyonel hale getirme eğilimi; ve kullanımlarının demokratik sürece hiçbir etkisi yokmuş gibi ticari takip ve izleme tekniklerinin hatalı bir şekilde benimsenmesi. 

Bölüm III, siyasi aktörlerin kampanya veri uygulamaları konusunda daha şeffaf olması gerektiğini vurgulayıp, zorunlu bir açıklama ve feragat rejimiden oluşan Bölüm II’de tanımlanmış zararları ele almak için ticari veri simsarlarının yeni federal gizlilik kısıtlamaları ve bireylerin, ticari firmaların çevrimiçi aktivitelerini takip edip etmeyeceklerini ve ne ölçüde hedefleme yapabileceklerini kararlaştırabilecekleri (seçmen olarak da) tamamlayıcı bir “Beni Takip Etme” mekanizmasını makul bir teklif olarak sunmaktadır. Makale, bu makul teklifin bile Temel Anayasa tarafından garanti altına alınan siyasi söylem hakları ile çelişki içine girip girmediğini sorgulamaktadır. İki argüman ortaya koymaktadır. Birincisi, Yüksek Mahkeme, diğer düzenleme biçimleri konusunda şeffaflığı benimseyen önde gelen kampanya finansmanı davalarında geliştirilen ve yeniden onaylanan doktrinler temelinde zorunlu mahremiyet açıklamalarını ve feragatnameleri desteklemeyi sürdürecektir. İkinci olarak, Mahkeme, siyasi aktörlere dayatılabilecek ağır yüke ve dikkat çeken son  Sorrell v. IMS Health kararına rağmen, Temel Anayasa doktrinleri kapsamında uzun zamandır devam eden ticari gizlilik düzenlemelerini anayasal olarak görmeye devam edecektir.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2447956

Google’daki Yapay Zeka: İlkelerimiz

 

Google’daki Yapay Zeka: İlkelerimiz

Related image

Sundar Pichai

 

Sundar Pichai

CEO

7 Haziran 2018

 

 

 

Yapay zeka özünde, öğrenen ve adapte olan bir bilgisayar programıdır. Her problemi çözemez, ancak hayatlarımızı iyileştirme potansiyeli çok büyüktür. Biz Google’da yapay zekayı – spam gelmeyen ve kolay oluşturulan e-postalardan, doğal bir şekilde konuşabileceğiniz dijital asistanlara, hoşunuza gidebilecek fotoğrafların önünüze çıkmasına kadar- ürünlerimizi daha faydalı olması için kullanıyoruz.

Ürünlerimizin ötesinde, yapay zekayı insanların acil problemlerini çözülmesinde yardımcı olmak için kullanıyoruz. Bir çift lise öğrencisi, orman yangını riskini tahmin etmek için YZ destekli sensörler üretiyor. Çiftiler onu sürülerinin sağlığını izlemek için kullanıyorlar. Doktorlar, kanseri teşhis etmeye ve körlüğü önlemeye yardımcı olmak için YZ kullanmaya başlıyor. Bu belirgin faydalar, Google’ın YZ araştırma ve geliştirmeye büyük yatırımlar yapmasını ve YZ teknolojilerinin diğerleri tarafından, Google’ın araçları ve açık kaynak kodları vasıtasıyla yaygın şekilde kullanılabilmesini sağlamaktır.

Bu güçlü teknolojinin, kullanım konusunda eşit derecede güçlü sorular ortaya koyduğunu biliyoruz. YZ’nin nasıl geliştirildiği ve kullanıldığının yıllar boyunca toplum üzerinde önemli bir etkisi olacak. YZ’de bir lider olarak, bunu doğru yapmak için büyük bir sorumluluk hissediyoruz.  Bu sebeple bugün, ilerleyen çalışmalarımıza rehberlik etmesi için yedi ilkeyi ilan ediyoruz. Bunlar teorik kavramlar değildir; araştırma ve ürün geliştirmemize aktif olarak yön verecek ve iş kararlarımızı etkileyecek somut standartlardır.

Bu alanın dinamik ve gelişmekte olduğunu kabul ediyoruz ve çalışmalarımıza alçakgönüllülük, içsel ve dışsal bağlılık taahhüdü ile; ve zaman içinde öğrendiğimiz yaklaşımımızı adapte etme isteğimizle yaklaşacağız.

Yapay Zeka Uygulamaları için Hedefler

YZ uygulamalarını aşağıdaki hedefler doğrultusunda değerlendireceğiz. İnanıyoruz ki YZ:

  1. Sosyal açıdan faydalı olmalı.

Yeni teknolojilerin genişletilmiş erişimi, bir bütün olarak topluma giderek daha fazla dokunuyor. YZ’deki ilerlemeler, sağlık, güvenlik, enerji, ulaşım, üretim ve eğlence gibi çok çeşitli alanlarda dönüştürücü etkilere sahip olacak. YZ teknolojilerinin potansiyel gelişimini ve kullanımlarını göz önünde bulundurduğumuzdan, geniş bir yelpazede sosyal ve ekonomik faktörleri dikkate alacağız ve olası genel faydaların, öngörülebilir risk ve dezavantajları büyük ölçüde aştığına inandığımız yerde devam edeceğiz.

Ayrıca YZ içeriğin anlamını etraflıca anlama yeteneğimizi geliştirir. Faaliyet gösterdiğimiz ülkelerdeki kültürel, sosyal ve hukuki normlara saygı göstermeye devam ederken, YZ kullanarak yüksek kalitede ve doğru bilgileri hazırlamaya çalışacağız. Teknolojilerimizi ne zaman ticari olmayan bir şekilde kullanılabilir hale getireceğimizi dikkatlice değerlendirmeye devam edeceğiz.

  1. Haksız önyargı yaratmaktan ya da bunu güçlendirmekten kaçınmalı

YZ algoritmaları ve veri tabanı haksız önyargıyı yansıtabilir, güçlendirebilir ya da azaltabilir. Haklı önyargıları, haklı olmayan önyargılardan ayırt etmenin her zaman basit olmadığının; ve kültürler ve toplumlar arasında farklılık gösterdiğinin farkındayız. Özellikle insanlar üzerinde ırk, etnik köken, cinsiyet, milliyet, gelir, cinsel yönelim, yetenek ve siyasi veya dini inanç gibi hassas niteliklerle ilgili haksız etkilerden kaçınmaya çalışacağız.

  1. Güvenlik için inşa edilmeli ve test edilmeli

Zarar riskine yol açan istenmeyen sonuçları önlemek için güçlü güvenlik ve koruma uygulamalarını geliştirmeye ve uygulamaya devam edeceğiz. YZ sistemlerimizi uygun şekilde ihtiyatlı olmak için tasarlayacağız ve bunları YZ güvenlik araştırmasında en iyi uygulamalara göre geliştirmeye çalışacağız. Uygun durumlarda, YZ teknolojilerini kısıtlı ortamlarda test edeceğiz ve dağıtımdan sonra çalışmalarını izleyeceğiz.

  1. İnsanlara karşı sorumlu olmalı

Geri bildirim, ilgili açıklamalar ve itiraz için uygun fırsatlar sunan YZ sistemleri tasarlayacağız. Bizim YZ teknolojilerimiz uygun insan yönlendirmesine ve kontrolüne tabi olacaktır.

  1. Gizlilik tasarım ilkelerini kapsamalı

Gizlilik ilkelerimizi, YZ teknolojilerimizin geliştirilmesine ve kullanımına dahil edeceğiz. Bildirim ve onay için fırsat verip, gizlilik önlemleri ile yapıları teşvik edip, verilerin kullanımı üzerinde uygun şeffaflığı ve kontrolü sağlayacağız.

  1. Yüksek bilimsel başarı standartlarını desteklemeli

Teknolojik yenilik, bilimsel yönteme dayanmaktadır ve açık sorgulama, entelektüel titizlik, dürüstlük ve işbirliği için bir taahhüt kaynağıdır. YZ araçları biyoloji, kimya, tıp ve çevre bilimleri gibi kritik alanlarda yeni bilimsel araştırma ve bilgi alanlarını ortaya çıkarma potansiyeline sahiptir. YZ gelişimini ilerletmek için çalışırken, yüksek standartlarda bilimsel başarı arayışındayız.

Bilimsel olarak titiz ve çok disiplinli yaklaşımları kullanıp, bu alanda düşünceli(anlayışlı) liderliği teşvik etmek için bir dizi paydaşla birlikte çalışacağız. Ayrıca, eğitim materyallerini ve en iyi uygulamaları yayınlayarak YZ bilgisini sorumlu bir şekilde paylaşacağız ve daha fazla insanın yararlı YZ uygulamaları geliştirmesini sağlayacak araştırmalar yapacağız.

  1. Bu ilkelere uyan kullanımlar için geçerli kılınmalı

Birçok teknolojinin birden fazla kullanımı vardır. Potansiyel olarak zararlı veya taciz edici uygulamaları sınırlandırmak için çalışacağız. YZ teknolojilerini geliştirip uygularken, aşağıdaki faktörlerin ışığında olası kullanımları değerlendireceğiz:

  • Birincil amaç ve kullanım: Çözümün zararlı bir kullanımla ne kadar yakından ilişkili olduğu veya ona uyarlanabileceği de dahil olmak üzere, bir teknoloji ve uygulamanın birincil amacı ve olası kullanımı.
  • Mahiyet ve teklik: Benzersiz veya daha genel şekilde mevcut olan teknolojiyi sağlanması.
  • Ölçü: Bu teknolojinin kullanımının önemli bir etkisi olması.
  • Google’ın dahil olmasının mahiyeti: Genel amaçlı imkanlar sağlanması, imkanların müşterilere entegre edilebilmesi veya özel çözümler geliştirilmesi.

YZ Uygulamalarını İzlemeyeceğiz

Yukarıdaki amaçlara ek olarak, YZ’yi aşağıdaki uygulama alanlarında tasarlamayacağız veya kullanmayacağız:

 

  1. Genel bir zarara neden olan ya da neden olması muhtemel olan teknolojiler. Maddi bir zarar riski olduğunda, sadece faydaların risklerden önemli ölçüde ağır bastığına inandığımız ve uygun güvenlik kısıtlarını içeren noktaya ilerleyeceğiz.
  2. Temel amacı veya uygulaması, insanlara zarar vermek veya doğrudan zarar vermeyi amaçlayan silahlar veya diğer teknolojiler.
  3. Amacı, uluslararası hukukun ve insan haklarının yaygın olarak kabul edilen ilkelerine aykırı olan teknolojiler.

 

Silah kullanımında YZ geliştirmiyor olmamıza rağmen, çalışmalarımızı başka alanlardaki hükümetlerle ve orduyla sürdüreceğimizi açıkça belirtmek isteriz. Bunlar arasında siber güvenlik, eğitim, asker yetiştirme, gazilerin sağlık bakımı ve arama ve kurtarma yer alıyor. Bu işbirlikleri önemlidir ve bu kuruluşların kritik çalışmalarını artırma ;ve hizmet üyelerinin ve sivillerin güvende olmaları için aktif olarak daha fazla yol arayacağız.

Uzun vadede YZ

Bu, bizim yapay zekaya nasıl yaklaşmayı seçtiğimizin konusu olsa da, bu konuşmada birçok ses için yer var. YZ teknolojileri ilerledikçe, bu alanda düşünceli(anlayışlı) liderliği teşvik etmek ve bilimsel olarak titiz ve çok disiplinli yaklaşımları benimsemek için bir dizi paydaşla birlikte çalışacağız. Ayrıca YZ teknolojilerini ve uygulamalarını geliştirmek için öğrendiklerimizi paylaşmaya devam edeceğiz.

Bu prensiplerin şirketimiz ve gelecekteki YZ gelişimi için doğru bir temel olduğuna inanıyoruz. Bu yaklaşım, 2004 yılında asıl Kurucularımızın Mektubu’nda belirtilen değerler ile tutarlıdır. Kısa vadeli bir vazgeçme anlamına gelse bile, uzun vadeli bir bakış açısı alma niyetinizi açıkça belirledik. Bunu daha önce söylemiştik ve şimdi inanıyoruz.

 

Metnin orijinaline aşağıdan ulaşabilirsiniz:

https://blog.google/topics/ai/ai-principles/

 

Yapay Zeka Çağında Mahremiyet ve İfade Özgürlüğü

 

Yapay Zeka Çağında Mahremiyet ve İfade Özgürlüğü

 

Related image

Article 19 & Privacy International

Nisan, 2018

 

Özet

“Yapay Zekâ(YZ) artık günlük hayatımızın bir parçası. Bu teknoloji, insanların bilgilere nasıl eriştiklerini, cihazlarla nasıl etkileşimde bulunduklarını, kişisel bilgileri paylaşımlarını şekillendiriyor ve hatta yabancı dilleri bile anlıyor. Ayrıca, bireylerin ve grupların nasıl izlenebileceğini ve tanımlanabileceğini dönüştürüyor ve veriden insanlar hakkında ne tür bilgilerin toplanabileceğini önemli ölçüde değiştiriyor.

YZ, toplumları olumlu yönde kökten değiştirme potansiyeline sahiptir. Ancak, herhangi bir bilimsel veya teknolojik ilerlemede olduğu gibi, devletler veya şirketler tarafından yeni araçların kullanımının insan hakları üzerinde olumsuz bir etki yaratacağına dair gerçek bir risk var.

YZ, çok sayıda haktan etkilenirken, ARTICLE 19 ve Privacy Internatinal, özellikle mahremiyet, ifade ve bilgi alma özgürlüğü üzerindeki etkilerinden endişe duymaktadır.

Bu kapsam belirleme yazısı, “yapay dar zekâ” uygulamalarına -özellikle makine öğrenimi ve bunların insan hakları üzerindeki etkilerine- odaklanmaktadır.

Bu yazının dört tane amacı bulunmakta:

  1. Tartışmayı açıklığa kavuşturmak için anahtar teknik tanımları sunma;
  2. Yapay Zekânın ifade özgürlüğü ve mahremiyet hakkını nasıl etkilediğini ve zorlukların ana hatlarıyla belirlendiği temel yolları inceleme;
  3. Mevcut hukuki, teknik ve kurumsal çerçeveler ile ifade özgürlüğü ve mahremiyet özgürlüğü ile ilgili endüstri liderliğindeki YZ girişimleri de dahil olmak üzere, mevcut YZ yönetişimini gözden geçirme; ve
  4. YZ savunuculuk faaliyetlerinde sivil toplum örgütleri ve diğer paydaşlar tarafından izlenebilecek, haklara dayalı çözümler için önerilerde bulunma.

Bu alandaki politika ve teknolojinin:

  • İnsan haklarının, özellikle ifade özgürlüğü ve mahremiyet hakkının korunmasını sağlama;
  • Yapay Zekanın hesap verebilirliğini ve şeffaflığını sağlama;
  • Hükümetleri, ifade özgürlüğünün ve mahremiyetin korunması ile ilgili yasal ve politik çerçevelerin ve YZ ile ilgili düzenlemelerin yeterliliğini gözden geçirme konusunda teşvik etme;
  • Teknolojinin etkisinden bütünsel bir anlayışla haberdar olma:- yapay zekanın insan hakları üzerindeki etkisi ile ilgili olay incelemesi ve ampirik araştırmalar toplanmalıdır-; ve
  • Sivil toplum ve uzmanlarla olan bağlantılar da dahil olmak üzere geniş bir paydaş grubuyla birlikte geliştirilmesi

konularına cevap vermesi gerektiğine inanıyoruz.”

 

Rapor ile ilgili bağlantı adresini ve raporun orijinalini aşağıda bulabilirsiniz:

https://privacyinternational.org/sites/default/files/2018-04/Privacy%20and%20Freedom%20of%20Expression%20%20In%20the%20Age%20of%20Artificial%20Intelligence.pdf

Otomatik Bireysel Karar Verme ve Profilleme

Otomatik Bireysel Karar Verme ve Profilleme

 

Ä°lgili resim

MADDE 29 VERİ KORUMASI ÇALIŞMA GRUBU

3 Ekim 2017       17/EN WP 251 

 

GİRİŞ

Genel Veri Koruma Tüzüğü (GDPR), özellikle profilleme ve profilleme içeren otomatik bireysel karar vermeye dikkat çekiyor.

Profilleme ve otomatik karar verme hem özel sektörde hem de kamuda artan miktarda kullanılıyor. Bankacılık, finans, sağlık hizmetleri, vergi, sigortacılık, pazarlama ve reklamcılık, profillemenin karar vermeye yardımcı olması için düzenli olarak kullanıldığı yerlerden sadece birkaç örneğini oluşturur.

Teknolojideki ilerleme ve büyük veri analizindeki yetkinlik, yapay zeka ve makine öğrenmesi, bireylerin haklarını ve özgürlüklerini önemli ölçüde etkileme potansiyeline sahip profillemeyi ve otomatik kararlar almayı kolaylaştırdı.

Kişisel verilerin internette ve nesnelerin interneti cihazlarındaki yaygın kullanılabilirliği, ilişki bulma yeteneği ve bağlantı kurması, bir bireyin kişiliğinin veya davranışının yönünü, ilgilerini ve alışkanlıklarını belirlemeye, analiz ve tahmin etmeye izin veriyor.

Profilleme ve otomatik karar verme bireyler ve organizasyonlar için olduğu kadar ekonomi ve toplumun tamamı bakımından da artan verimlilik ve kaynakların kullanımı gibi faydalar sağlıyor.

Bunların pek çok ticari uygulaması mevcut, örneğin, piyasaları daha iyi bölümlere ayırmak ve bireysel ihtiyaçlarla uyumlu hizmetleri ve ürünleri uyarlamak için kullanılabilirler. İlaç, eğitim, sağlık hizmeti ve nakliye gibi bu süreçlerin hepsinde faydalı olabilirler.

Yine de profilleme ve otomatik karar verme, uygun güvenlik önlemleri gerektirmekte olan bireylerin hakları ve özgürlükleri için önemli riskler oluşturabilir.

Bu süreç anlaşılmaz olabiliyor. Bireyler profillendiğini bilmeyebilir ya da dahil olduğunu anlamayabilir.

Profilleme, mevcut yargı kalıplarını ve sosyal ayrımcılığı devam ettirebilir. Bir insanı belli bir kategoride kilitleyebilir ve önerdiği tercihlerle kısıtlayabilir. Bu, örneğin kitap, müzik ya da haber bültenleri gibi belirli ürünleri ya da hizmetleri seçme özgürlüğünü zayıflatabilir. Bazı durumlarda yanlış tahminlere, hizmet ve malların reddine ve haksız ayrımcılığa yol açabilir.

GDPR, mahremiyetle sınırlı olmamak üzere, özellikle profilleme ve otomatik karar verme sürecinden kaynaklanan riskleri ele almak için yeni hükümler getirmektedir. Bu rehberin amacı bu hükümlere açıklık getirmektir.

Bu doküman şu bölümleri kapsamaktadır:

  • Profilleme ve otomatik karar verme tanımları ile genel olarak GDPR’ın bunlara yaklaşımı- Bölüm II
  • Madde 22’de tanımlanan otomatik karar verme ile ilgili özel hükümler- Bölüm III
  • Profilleme ve otomatik karar verme ile ilgili genel hükümler- Bölüm IV
  • Çocuklar ve Profilleme-Bölüm V
  • Veri koruma etki değerlendirmesi-Bölüm VI

Ekler ise, AB Üye Devletlerinde kazanılan deneyime dayanarak en iyi uygulama önerilerini sunmaktadır.

 

Rehberin tamamına aşağıdaki bağlantıdan ulaşabilirsiniz:

http://ec.europa.eu/newsroom/document.cfm?doc_id=47742

Robotlar, Yapay Zeka ve Hukuksal Tartışmalar

Robotlar, Yapay Zeka ve Hukuksal Tartışmalar

Türkiye’de bilişim hukuku alanında yetkin isimlerden biri olan, Medipol Üniversitesi’nden Doç. Dr. Volkan Dülger ile robotlar, yapay zeka ve yaratabilecekleri muhtemel hukuksal sorunların çözüm yolları üzerine konuştuk.

 

Keyifli okumalar…

 

Çetin:Yapay zekâ teknolojisinin yaratabileceği mahremiyet ve gizlilik sorunları karşısında sizce ne gibi düzenlemelere gidilmeli?

Dülger: İnsanlık var olduğu tarihten bu yana ihtiyaçlarına cevap verecek ve hayatını kolaylaştırıp kendisine yardım edecek araçların yapımı için uğraşmıştır. Bu araçların yapımı için ise bilgi, yetenek ve deneyime gereksinim vardır. İşte bu noktada teknoloji dediğimiz kavram gündeme gelir. Kısaca insanların kendisine yardımcı olacak araç ve gereçleri yapmak, üretmek veya geliştirmek için gereksinim duyduğu ve bilimsel ilerlemeye bağlı olarak gelişen ve artan araçlara teknoloji denir. Teknoloji, yapılan araştırmalar, çalışmalar ve deneyler ile gün geçtikçe gelişmekte ve şaşırtıcı boyutlara ulaşmaktadır.

Bilimsel ilerlemeler ile teknolojik gelişmeler sayesinde bilişim ve iletişim dünyasında meydana gelen gelişmelerle hayatımız ciddi bir biçimde değişmiş ve kolaylaşmış durumda. Bilgisayar, telefon ve internetle dünyanın öbür ucuyla iletişim sağlanabilirken; ulaşım araçları sayesinde dünyanın dört bir yanı ulaşılabilir hale gelmiştir. Sağlık alanına baktığımızda gerçekleştirilen ameliyatlar, röntgen ve filmler, kan tahlilleri ve DNA araştırmaları gibi faaliyetler tamamen bilimsel ilerleme ve teknolojiyle bağlıdır. Böylece tanı, tedavi yöntemleri ve tedaviye ulaşma hızı dolayısıyla da insan ömrünün uzaması açısından teknolojinin büyük katkıları olduğunu söylemek mümkündür. Hukuk ve özellikle ceza hukuku alanında ise teknoloji kullanılmadan yargılama yapılması ve suçluların yakalanması neredeyse imkansız hale gelmiştir. Güvenlik kameraları, kan ve parmak izleri ve takip sistemleri gibi teknolojiler, ceza soruşturma ve kovuşturmalarında sıklıkla kullanılmaktadır.

Görüldüğü gibi iletişim, ulaşım, sağlık, hukuk ve daha birçok alanda teknoloji ve teknolojinin getirdikleri vazgeçilmez hale gelmiştir. Nitekim teknoloji ürünlerinin sağladığı kolaylıklarla  hayatımızın bir parçası haline geldiği açık bir gerçektir. Öyle ki artık teknolojinin sağladığı fayda ve kolaylıklar olmadan bir yaşam sürülmesi düşünülememektedir. Peki hayatımızı bu denli kolaylaştıran teknoloji gerçekten bu kadar masum mu, hiç mi zararı yok? Maalesef durum böyle değil. Teknolojinin getirdikleri kadar götürdükleri de mevcut ve hatta bazı kesimler tarafından götürdüklerinin daha fazla olduğu iddia edilmekte. Ben bu düşüncede olmasam da faydalarının yanında birçok zararının da olduğunu inkâr etmek mümkün değil.

Teknolojiyle beraber gelişen savaş araçları, hava ve çevre sorunları, yer altı ve yer üstü kaynaklarının tükenmesi ve teknolojik araçların yaydığı elektromanyetik dalgaların canlılar üzerindeki zararı, teknoloji ile hayatımıza giren zorlukların ilk akla gelenleridir. Somut ve maddi örneklerin yanı sıra esasen en büyük zarar, insanların sosyal hayatı üzerinde gerçekleşmektedir. İnsanların, teknolojinin sağladığı kolaylıklardan sonra tembelleştiği ve sanallaştığı gözlemlenmektedir. Böylece depresyon, stres ve uykusuzluk gibi birçok problemi de beraberinde getirmiştir. Sosyal medya araçları sayesinde kendini daha kolay, hızlı ve daha geniş kitlelere ifade edebilen ve düşüncelerini paylaşabilen insan; diğer yandan yüz yüze iletişime geçmeyen, sanal ve bağımlı bir varlığa dönüşmüştür. Hal böyle olunca hayatımıza teknoloji bağımlılığı adıyla yeni bir hastalık türü girmiş ve çağın hastalığı olarak da kabul edilmeye başlanmıştır. Teknoloji bağımlılığı ile mücadele amacıyla birçok kuruluş harekete geçmiş ve çalışmalara başlamıştır.

Teknolojinin fayda ve zararlarının birleştiği en önemli nokta ise bilgi alışverişinin gerçekleşmesi noktasındadır. Özellikle internet aracılığıyla olmak üzere, bilişim ve iletişim teknolojilerinin gelişmesiyle bilgi alışverişi çok kolay ve hızlı hale gelmiştir. Bugün saniyeler içerisinde çok büyük sayıda verilerin tutulması, işlenmesi ve aktarılması mümkündür. Bununla birlikte verilerden yola çıkılarak veri sahibine de kolaylıkla ulaşılabilmektedir. Bu durum sağladığı faydaların yanında bireylerin kendilerine ait olan bilgilerinin, bu bilgilerle hiçbir ilgisi ve menfaati olmayan üçüncü kişilerin eline geçmesi ve bu bilgilerin üçüncü kişiler tarafından hukuka uygun veya aykırı olarak kullanılması tehlikesini gündeme getirmiş ve bu konuda endişe edilmeye başlamıştır. Bu endişelerin çıkış noktası daha basit teknolojilere dayanmış olsa da büyümesi ve ciddi boyutlara ulaşması günümüz teknolojisiyle gerçekleşmiştir.

Bugün teknolojide ulaştığımız son noktanın ise bundan kısa bir süre önce hayal etmesi bile zor olan ve hayal edilse dahi gerçekleşmesine imkânsız gözüyle bakılan gelişmelerden oluştuğunu görüyoruz. Özellikle yapay zekâ alanında gelinen nokta hem heyecanlandırıcı hem de olası senaryolar karşısında düşündürücü niteliktedir. Zira yapay zekalı varlıkların birçok mesleğin yerine geçebileceğini, cerrahi operasyonlar yapabileceği, doksan yıl içinde kendilerinin dahi yapay zekâ araştırmaları yapabileceği ve hatta bu varlıkların yüz yıl sonra bizler gibi olabileceği konuşuluyor. Yapay zekadan beklenen öğrenme, öğrendiğini analiz etme ve analiz çıktısını yorumlayarak karar verme, hatta söz konusu olan bir yapay zekalı robotsa hareket etme aşamalarını gerçekleştirebilmesidir. Bu amaçlarla devam eden yapay zekâ çalışmaları ve bu çalışmaların mevcut ürünleri düşünüldüğünde söz konusu ihtimaller pek de imkânsız görünmemekte.

Yapay zekalı varlıkların öngörülen geleceğini insanlık için tıpkı teknolojideki gelişmeler gibi faydalı ve yardımcı olacağını savunanlar kadar; tam aksine insanlar için tehlikeli olarak değerlendiren kesimler de mevcut. Peki bu tehlikenin kaynağı nedir? İnsanlar gibi araştırma yapabilecek, insanların gerçekleştirdiği meslek faaliyetlerinde onlara yardımcı olabilecek ve insan hayatında kahve içeceği saati, ne zaman nereye gideceğini bile tahmin edebilmek gibi birçok kolaylık sağlayabilecek olan yapay zekalı varlıkların ne gibi bir riski olabilir? Aslında bu sorunun cevabı tam da kendisi. Saydıklarım her ne kadar ilk bakışta yapay zekâ teknolojisinin ne kadar harika olduğunu düşündürtse de esasen olası tehlikeleri de anlatmaktadır. Yapay zekalı varlık sizin kahve içeceğiniz saati nerden bilebilir? Kullanmanız gereken ilacı ve ilaç saatinizi hatırlatacak olması nasıl mümkün olabilir? Aileniz ve yakın çevrenizi nereden tanıyabilir? Bütün bu soruların tek cevabı var: Veri, özellikle de kişisel veri! Yapay zeka teknolojisi kendisine yüklenen veriler üzerinde zihinsel faaliyetler gerçekleştirir ve ortaya sonuçlar çıkarır. Dolayısıyla esas olarak verilerden yola çıkar, burada da karşımıza büyük veri (big data) kavramı karşımıza çıkar. Yapay zekanın gerçekleşmesi, yapay sinir ağlarının gelişmesine bu da çok sayıda verinin üretilmesi, depolanması, erişilebilmesi ve bunların işlenmesine bağlıdır.

Verileri kullanarak insan zekasını taklit eden faaliyetlerde bulunan yapay zekalar, birçok farklı açıdan bu faaliyetleri insan zekasından daha iyi gerçekleştirebilmektedir. Yapay zekanın; doğal zekâ yani insan zekası gibi belli bir ömrü ve kapasitesinin olmaması, yapay zeka algoritmalarıyla donatılmış bir makine içindeki verilerin kolaylıkla kopyalanabilmesi ve belli bir sistem üzerinde kurulmuş olması itibariyle her durumda aynı ve objektif tepkiler verebilmesi kendisine yüklenen verilerin analizini yapma sürecinde insan zekasından daha üstün olduğu yönlerdir.

Bireylere ait verileri bu denli etkin ve ölçüsüz bir biçimde kullanabileceği öngörülen yapay zekaların, bu veriler üzerinde gerçekleştirecekleri faaliyetler sonucu hukuka aykırı kullanımlara ve insan hakları ihlallerine neden olabileceklerinden endişe edilmektedir. Zira halihazırda yapay zekâ algoritmalarının kullanıldığı alanlarda insan haklarının yoğun bir biçimde ihlal edilmesi ve tehlike altında olması bu endişeleri kuvvetlendirmektedir. Endişelerin esas yaşandığı ve toplandığı nokta ise bireylerin özel hayatın gizliliği ve özel hayata saygı hakkı kapsamında mahremiyet ve giz alanına ilişkindir.

Mahremiyet hakkı 1970 tarihli “Kitlesel İletişim Araçları ve İnsan Hakları Bildirisi” ile bir kişinin hayatını minimum müdahaleyle yaşama hakkı olarak tanımlanmıştır. Kişinin özel, fiziksel ve ruhsal bütünlüğü, onur ve itibarı ile aile hayatı bu kapsamdadır. Avrupa İnsan Hakları Sözleşmesi’nin özel yaşam ve aile hayatı hakkı başlıklı 8. maddesi ile de mahremiyet hakkının da korunduğu AİHM içtihatlarında açıkça belirtilmektedir.

Buna göre kişi kendi bütünlüğü ile özel ve aile yaşamı alanlarına en az müdahale ile hayatını sürdürebilmelidir. Oysa günümüz teknolojisi ve yapay zekalı varlıkların geleceği bu hak üzerinde maksimum düzeyde müdahale edebilecek nitelikte üretilmekte ve dizayn edilmektedir. Bunun nedeni söz konusu teknolojileri her kullandığımızda ardımızda dijital izler bırakmamızdır. Dijital alanda ve buna bağlı olarak internette attığımız her adım; hangi web sitelerine girip ne araştırdığımız, ziyaret ettiğimiz alışveriş sitelerinde hangi ürünlere baktığımız hatta nerelerde yemek yediğimiz ve kimlerle olduğumuz gibi en mahrem alanımıza ilişkin bilgiler sürekli kaydedilmektedir. İşin ilginç tarafı kimsenin bilmesini ve ulaşmasını istemeyeceğimiz bu bilgileri çoğu zaman kendi ellerimizle ortalık yere bırakmamızdır.

Günümüzde büyük ölçüde teknolojinin gelişmesiyle ortaya çıkan tehlikeler dolayısıyla kişisel verilerin korunmasına ilişkin sorunlar daha iyi anlaşılmış ve özellikle 1980’li tarihlerden itibaren Avrupa Birliği’nin bu yöndeki çalışmaları neticesinde kişisel verilerin korunması hakkı oluşmuştur. Ülkemizde de kişisel veriler 7 Nisan 2016 tarihinde yürürlüğe girmiş olan 6698 sayılı Kanun ve ilgili Yönetmeliklerle korunmaktadır. Ayrıca kişisel verilerin hukuka aykırı olarak kaydedilmesi ve yayılması Türk Ceza Kanunu ile de zaten suç olarak düzenlenmiştir.

Bununla beraber teknolojinin gelişmesi ve yapay zekalı varlıkların iyiden iyiye hayatımıza girmesi ile bu korumaların yetersiz kalacağında şüphe yoktur. Ki ben yapay zekalar tarafından kişisel verilerimizin hukuka aykırı bir biçimde kullanılması ile yakın bir gelecekte karşı karşıya kalacağımızı düşünüyorum. Gelinen nokta düşünüldüğünde yukarıda detaylı bir biçimde bahsettiğim olası tehlikelerin çok da uzak olmadığını öngörüyorum. Bu nedenle teknoloji ve yapay zekalar konusunda hukuk düzleminde de çalışmalara başlanmalı ve düzenleme yapma yoluna gidilmelidir.

Bu kapsamda ilk olarak hukuki statü tartışması çözümlenmelidir. Ardından günümüz dünyasında kişisel verilerin kullanımı olmadan hayatın devam edilmesinin mümkün olmadığından artık şüphe edilmediğinden yapay zekalı varlıklar ile beraber bu zekaların da kişisel veriye ihtiyaç duyacağı kesindir. Öyleyse yapay zekalar tarafından hangi hallerde kişisel veri kaydedileceği, işleneceği ve/veya aktarılabileceği hukuki düzenlemelerle belirlenmelidir. Sözgelimi bir yapay zekalı varlığın elinde bulundurduğu kişisel veriyi hangi şartlar altında başka bir yapay zekalı varlığa aktarabileceği öngörülebilir olmalıdır. Bundan sonra bu varlıkların mahremiyet ve özel hayata saygı hakkı başta olmak üzere temel insan haklarını ihlal etmeleri halinde hukuki ve cezai sorumlulukları düzenlenmelidir.

Çetin:Yapay zekâlı robotun ölümlü kazaya sebep olduğu bir senaryoda, hangi şartlarda robotun cezai sorumluluğundan bahsedebiliriz?

Dülger: İlk olarak yapay zekalı varlıkların hukuki statüsü ile hukuki ve cezai sorumluluğunu belirleyen yasal düzenlemeler olmadığını ancak teknolojinin gelişmesiyle düzenleme yapılması ihtiyacının gündeme geleceğini belirtmeliyim. Bunun nedeni hukuk düzenimizde Roma Hukuku’nda beri süregelen kişi ve eşya ayrımına yer verilmiş olmasıdır. Oysa yapay zekalı varlıkların insanın tabi olduğu düzenlemelere konu olmasının mümkün olmadığı gibi; eşya tanımı kapsamında değerlendirilebilmesi de imkansızdır. Yapay zekalı robotların basit bir eşya tanımının çok ötesinde olduğundan şüphe yoktur. Bu nedenle artık geleneksel hukuk anlayışının sınırları aşılarak yapay zekalı varlıkların hak ve yükümlülüklerini belirleyen düzenlemeler için çalışmalara başlanmalıdır. Ancak henüz mevcut bir düzenleme bulunmadığından bu noktada yalnızca olması gerekeni konuşabiliriz.

Yapay zekalı robotların cezai sorumluluğunun olup olamayacağı; olacaksa da bunun nasıl belirleneceği sorularının tespiti için öncelikle otonom-yarı otonom araçlar ile gerçek anlamda yapay zekalı varlıklar ayrımına dikkat çekmek gerekir. Otonom-yarı otonom araçlar bakımından bu problemi çözmek basittir. Bu araçlar bilinç sahibi olmadığı ve gerçek kişiler tarafından yönetildiği için bu araçların sebep olduğu zararlardan bunları yöneten ya da duruma göre üreten gerçek kişiler sorumlu olacaktır. Çünkü bu araçlar gerçek kişilerin verdiği komutlara göre hareket eder ve dolayısıyla bu araçların hukuki veya cezai sorumluluğundan bahsedilemez.

Sorumluluğun tespit edilmesinde asıl problem gerçek anlamda yapay zekalı varlıklar açısından ne olacağıdır. Son kararı kendisi verebilecek yapay zekalı bir robotun araba sürücü olması ve arabayı çarpmamak adına başka birine çarpması halinde kasten ya da taksirle öldürme suçunun faili kim olacaktır? Başka bir ihtimalde, cerrahi operasyon yapabilen bir robot ihmali neticesinde hastanın ölümüne sebep verirse sorumlu kim olacaktır? Yapay zekalı robotun kendisi mi, eğer bir sahibinin olduğu kabul edilirse sahibi mi, yoksa robotun üreticisi mi?

Yapay zekalı robotun sahibi olduğu kabul edilirse robotun eşya statüsünde değerlendirilmesi gerekir. Oysa bu yapay zekaların bir yöneticisi ve komut vereni yoktur. Dolayısıyla kendi kararlarını kendi verebilmektedir. Dolayısıyla bir sahibinin olduğundan bahsedilemeyecektir. Bilinçli hareketleri ile gerçekleştirdiği davranışları sonucu doğan zararlardan üreticinin de sorumluluğuna gidilmesi mümkün olmamalıdır. Hiçbir kusuru olmayan üreticinin suçun faili olarak kabul edilmesi suçun şahsiliği prensibine aykırıdır. Öyleyse kendi iradesi ile bilinçli olarak hareket eden ve bu hareketi sonucunda tipik bir suçun meydana gelmesine neden olan yapay zekalı robotun söz konusu suçun faili olarak kabul edilmesi gerekir. Ancak mevcut ceza hukuku sistemimizde bir suçun faili ancak gerçek kişiler olabilir.

Görüldüğü gibi sorumluluğun tespitinde farklı ihtimalleri değerlendirdiğimizde halihazırda bulunan yasal düzenlemeler hiçbirine cevap verememekte ve bir noktada tıkanmaktadır. Bu nedenle kişi ve eşya ayrımının yanına yapay zekalı robotların da hukuk düzeninde tanımlaması yapılmalı ve hukuki statüsü belirlenmelidir. Burada dikkat edilmesi gereken nokta genel bir tanımdan ziyade bunların otonom-yarı otonom ve gerçek yapay zekâlı varlıklar gibi derecelendirilerek ayrılması gerektiğidir. Zira yapay bir bilinç ve kendi kendine karar verebilme kavramının derecesi hepsinde aynı değildir. Dolayısıyla sorumluluğun boyutu da farklılık gösterebilecektir.

Bu bilgiler ışığında yapay zekalı robotun ölümlü bir kazaya sebep olmuş olması ihtimalinde; sorumluluk, şu aşamalar esas alınarak belirlenmelidir:

  • İlk olarak kazaya sebep olan robotun Anayasa ve Medeni Kanun ile belirlenmiş olan tanımı ve hukuki statüsü tespit edilmelidir. Kaza, verilen bir komut sonucunda mı gerçekleşmiş yoksa robotun kendi bilincinden ve iradesinden bahsedilebiliyor mu? En uç ihtimalde biyolojik insan faktörleri mevcut mu? Bu ihtimaller değerlendirilmelidir.
  • Kazanın yapay zekalı varlığın bilinçli hareketleri neticesinde gerçekleştiği sonucuna varılırsa suçun unsurlarının oluşup oluşmadığına bakılmalıdır.
  • Son olarak somut olayda gerçekleşen suça, yapay zekalı robotun sorumluluğunun öngörüldüğü hukuk prensiplerince belirlenmiş olan ceza yaptırımı uygulanmalıdır.

Burada tartışılması gereken bir diğer problem de insanlar için belirlenmiş olan ceza yaptırımlarının robotlar üzerinde ne kadar etkili olacağıdır. Ceza hukuku yaptırımlarının esas çıkış noktası suçun işlenmesi aşamasından önce caydırıcı etkisidir. Hapis cezasına hükmedileceğini düşünen insan ailesinden ve sevdiklerinden ayrı kalacağını düşünerek cayabilecekken; yapay zekalı robot için bu durumun caydırıcı bir etkisi olabilir mi? Yoksa daha ilerde tıpkı insan gibi duygulara sahip olan robotlar var olacak mı?

Suçun işlenmesi aşamasından sonra ceza hukukunun amacı suçluyu ıslah etmeye yöneliktir. Hapis cezasına hükmedilen suçlunun, bu süre içerisinde işlediği suçtan pişman olup bir daha suç işlememesi gerektiğini kavrayabilmesi amacı söz konusudur. Yapay zekalı robotun pişmanlığından ve ıslahından söz edilebilecek mi?

Ceza ile birlikte veya cezadan ayrı olarak bir güvenlik tedbirine hükmedildiğinde bunun robot için anlamı ve gerekliliği nedir? Bir yazılım güncellemesi ile her sorun çözülebilecek iken, güvenlik tedbiri olarak yapay zekalı robotun bir kenarda çürümeye bırakılması ne kadar gerçekçi ve mantıklıdır?

Görüldüğü üzere yapay zekalı varlıkların hukuki statüsü ile hukuki ve cezai sorumluluğunun yasalarla öngörülmesi gerektiği kadar; bunun nasıl yapılacağı da büyük bir problem teşkil etmektedir. Düzenlenecek olan yasaların yapay zekalı varlıkların doğası ve özü dikkate alınarak onların ihtiyaçlarına cevap verebilecek nitelikte olması gerekir.

Çetin:Sıradan nesnelere zarar vermekle, insansı özellikleri olsun veya olmasın bir yapay zekâlı robota zarar vermek açısından cezai anlamda fark oluşur mu?

Dülger: İlk olarak soruyu sıradan nesneler ifadesi için eşya kavramını esas alarak cevaplandıracağım. Eşya olarak nitelendirilebilecek nesnelere zarar verildiğinde bu zarar neticesinde Türk Ceza Kanunu’nda düzenlenmiş olan “mala zarar verme” suçu oluşur. Bununla beraber eşya kapsamında değerlendirilebilecek yapay zekalı bir robotun söz konusu olması ihtimalinde bu hallerin de yapay zekalı varlıkların kendilerine özgü düzenlenmiş olan hükümleriyle çözümlenmesi gerekir. Ancak mala zarar verme suçuna benzer bir suç biçiminde düzenlenmesi gerektiğini söylemek mümkündür.

Öte yandan insansı özellikte olmayan ama kişi için bir eşya kavramından çok daha fazlasını ifade eden yapay zekalı varlıklar söz konusu olabilir. Uzaktan haberleşme özelliğine sahip, sizi istediğiniz yerden alacak ve trafiksiz olan en rahat yolu seçecek, sizin sevdiğiniz kahveyi bilip gelmeden onu da yol üstündeki bir kafeden alabilen, dolayısıyla kişisel tercihlerinizi kodlayabileceğiniz yapay zekâya sahip bir aracı sadece eşya olarak nitelemek ne kadar doğru? Çünkü bu durumda kişinin yalnızca bir arabasına zarar vermiş olmazsınız ve kişinin üzerinde arabasına zarar vermiş olduğunuz ihtimaline göre çok daha büyük bir zarar meydana getirmiş olursunuz.

İnsansı özelliklere sahip bir robottan ise insan gibi algılayabilen, öğrenen, kendi kendine karar verebilen ve bilinçli bir şekilde hareket eden yapay zekalı varlık anlaşılmalıdır. Burada mağdur doğrudan varlığın kendisi olabilecek mi? Fail, mala mı yoksa kişiye mi zarar vermekten cezalandırılacak? Bilinci ve muhakeme yeteneği olan bir robota zarar verilmesi halinde doğrudan suçtan zarar görenin robotun kendisi varsayılabiliyorsa; Türk Ceza Kanunu’nda öngörülmüş olan “yaralama” suçuna benzer bir suçun oluşacağını söylemek gerekir. Failin de insansı özelliklere sahip yapay zekalı bir varlığın öngörülmüş olan hukuki statüsüne göre cezalandırılması gerekir.

Söz konusu ihtimallerden üç farklı yapay zekalı varlık tipi anlaşılmaktadır; eşya gibi nitelendirilebilen, insansı özelliklere sahip olmayıp basit bir eşyadan ötesini ifade eden ve insansı özelliklere sahip olan robot. Teknolojinin ve yapay zekanın gelişmesiyle bu tiplerin artacağı kuşkusuzdur. Soruda ise insansı özelliğe sahip olsun veya olmasın ifadesiyle ayrım yapılmaksızın bütün yapay zekâlı robotlar aynı çatı altında değerlendirilmiştir. Oysa böyle bir düzenleme mevcut düzenden bir adım ötesine geçmekten fazlasını vermez. Kaldı ki zaten düzenlemelerin esas noktasını, yapay zekalı varlığın insansı özelliğe sahip olup olmaması oluşturmalıdır. Asıl problem ve tıkanma bu noktada yaşanmaktadır. Dolayısıyla yapay zekalı varlıklar ile ilgili oluşturulacak prensip ve yasal düzenlemelerin genel bir başlık altında toplanmaktan ziyade; geniş bir perspektifle kapsamlı nitelikte olması gerekir.

Çetin:Ütopik bir soru olarak, gelecekte robotların kendi aralarında geçerli olacak bir cezai düzenlemeden bahsedilebilir mi?

Dülger: Yukarıda belirttiğim nedenlerden ötürü mevcut hukuk düzeni robotların kendi aralarında gerçekleşebilecek herhangi bir uyuşmazlığa da cevap vermemektedir. Yapay zekalı robotun bir diğer robotu yaralaması veya başka bir robotun mala zarar vermesi gibi bir senaryo karşısında halihazırda bulunan düzenlemelerle cevap verebilmek mümkün değildir. Bu nedenle yapay zekalı robotların da hukuk süjesi olarak tanımlanıp kendi aralarında yaşanacak uyuşmazlıkların geleceği ve nasıl çözüleceği konusunun belirlenmesi gerekir.

Bununla beraber sadece yapay zekâlar arasında, salt sınıflandırılan yapay zekâların birbirlerine karşı hak ve yükümlülüklerinin düzenlendiği bir sistemin öngörülmesini doğru bulmuyorum. Zira böyle bir yaklaşım ve varsayım suç teorisine aykırı bir durum teşkil edecektir ve ikili bir hukuk düzeni ortaya çıkacaktır. Bunun yerine yapay zekalı varlıklar tanımlandıktan ve hukuki statüsü belirlendikten sonra bu varlıkların tabi olacağı genel hukuk prensiplerine uygun cezai düzenlemelere gidilmesi isabetli olacaktır.

Çetin: Siber güvenlik konusunda, sizce yapay zekâ bir tehlike mi, yoksa avantaj mı?

Dülger: Öncelikle yukarıda da detaylı bir biçimde açıkladığım üzere genel olarak teknoloji ve teknoloji ürünlerinin hayatımızı kolaylaştırmak amacını güttüğünü ancak hayatımızı pek çok farklı açıdan kolaylaştırırken; birçok tehlikeyi de beraberinde getirdiğini kabul etmek gerekir. Yapay zekalı varlıklar açısından da aynı durum söz konusudur. Gerçekleştirdiğimiz mesleki faaliyetlerimizde bize yardımcı olarak işimizi kolaylaştıracak yapay zekalı varlık; bir sonraki adımda mesleki faaliyetin gerektirdiği bütün nitelikleri barındırıp gerçekleştirebildiği zaman işimizi elimizden alabilecek olması itibariyle, geleceğimiz için büyük bir tehlike de barındırmaktadır. Yıllar öncesinde günler ve saatlerimizi harcayan işlemleri şu anda saniyeler içerisinde yapmamızı sağlayan yapay zekâ algoritmaları, bugün, çok kısa süre içerisinde çok büyük boyutlarda kişisel verilerimizi de kaydederek olası insan hakları ihlallerine konu olabilmektedir. Bilişim sektörünün her alanında kullanılan ve bu sektörün gelişmesine katkı sağlayan yapay zekâ teknolojisi diğer taraftan siber saldırı aracı olarak kullanılabilecektir.

Dolayısıyla her açıdan yapay zekalı varlıkların çok önemli faydalarının yanında birtakım tehlikeler barındırdığını da görüyoruz. Ancak bu tehlikeleri esas alarak teknolojiye sırtımızı dönmek çok büyük bir hata olacaktır. Teknolojiye karşı olmak yerine onu takip edebilmek ve bunu fırsata dönüştürebilmek gerekir. Kaldı ki günümüzde teknolojiyi takip etmek bir zorunluluk haline gelmiştir. Teknolojiyi kullanmayan ve teknolojinin nimetlerinden faydalanmayan ülke ve toplumların gelişebilmesi ve yeni dünyaya ayak uydurabilmesi mümkün değildir. Buna en güzel örnek 18. yüzyılın sonlarında Avrupa’da sanayi alanında buhar gücünü kullanma ve makineleşmeyle gerçekleşen teknolojiyi takip edemeyen ülkelerin hala üçüncü dünya ülkesi olmaktan kurtulamamasıdır.

Açıkladığım nedenlerden ötürü teknoloji her ne kadar içerisinde birçok tehlikeyi barındırsa da; korkup kaçılacak bir durum değil takip edilmesi gereken bir zorunluluktur. Teknolojiden en yüksek düzeyde faydalanabilmek için de söz konusu tehlikelerin önceden mümkün olduğunca öngörülerek devletin pozitif yükümlülüğü altında önlenmesi ve bireylerin haklarının korunması gerekir. Teknoloji olmadan günlük hayat dahil olmak üzere spesifik hiçbir alanın devamının ve işleyişinin mümkün olmadığı günümüzde, barındırdığı risk faktörleri nedeniyle teknolojiden kaçmak gerçekçi bir yaklaşım olmadığı gibi akıntıyı tersine çevirmekle de eş anlamlıdır.

Çetin:Türk hukuk sisteminde bu teknoloji bakımından birincil düzenleme ne olmalı?

Dülger: Yapay zekalı varlıkların yasal düzlemde tanımlanması ile hak ve yükümlülüklerinin belirlenmesi, üstelik bu düzenlemelerin birbirinden farklı türlerinin dikkate alınarak dereceli ve kapsamlı bir nitelikte olması gerektiğine yukarıda değindim. Bu düzenlemelerin hangi hukuk prensibi ile nasıl olması gerektiği yönündeki kanaatim öncelik sıralamasına göre aşağıdaki gibidir:

  • İlk olarak konunun Anayasa hukuku bağlamında ele alınması gerekir. Burada yapay zekalı varlıkların hukuki statüsü tanımlanmalı, temel hak ve özgürlükleri açıkça belirlenmelidir.
  • Ardından hukukun temeli olan Medeni Hukuk devreye girmelidir. Kişiler hukuku benzeri “yapay zekalı varlıklar hukuku” benzeri bir başlık öngörülmeli ve bu başlık altında yapay zekalı varlıkların varlığının başlangıcı ve sonu, aile hukuku, miras hukuku ve eşya hukuku ile ilgili hükümler düzenlenmelidir.
  • Bu sırayı ceza hukukunun takip etmesi gerektiği düşüncesindeyim. Yapay zekalı varlıkların dahil olduğu bir ceza hukuku uyuşmazlığında ne yapılması gerektiği ve sorumluluğunun nasıl ve neye göre tespit edileceği açıklığa kavuşturulmalıdır.
  • Son olarak yapay zekalı varlıkların sosyal, ekonomik ve kültürel ilişki ve faaliyetleri söz konusu olacağından ticaret hukuku, iş hukuku, borçlar hukuku gibi farklı hukuk disiplinlerinde de düzenleme yapılmalıdır. Hatta vatandaşlık alan yapay zekalı robotlar düşünüldüğünde milletlerarası hukukun bile devreye girmesi gerektiğini söylemek mümkündür.

 

Değerli Volkan Dülger‘e saygı ve sevgilerle…

Robotlar ve Mahremiyet

Robotlar ve Mahremiyet

 

İlgili resim

 

 

Ryan Calo

Washington Üniversitesi

2 Nisan 2010

 

 

 

Özet

“Robotların mahremiyetle ilişkisinin niçin arttığını hayal etmek çok da zor değil. Pratik açıklaması olarak, robotlar etrafındaki dünyayı algılama, işleme ve kaydetme yeteneği ile donatılmıştır. Robotlar insanların gidemediği yerlere gidip, göremediği şeyleri görebilir. Robotlar, ilk ve öncelikli olarak insan aletleridir. Ve endüstriyel üretimden sonra, o aleti koyduğumuz yer, gözetleme olmuştur.

Ancak gözlemleme gücünün artırılması, robotların önümüzdeki on yıl içinde mahremiyeti etkileyebilecek yollardan sadece biridir. Bu parça, okuyuculara çeşitli konuları sunmayı amaçlayarak, robotların mahremiyet üzerindeki etkilerini üç kategoriye ayırıyor: doğrudan gözetleme, artan erişim ve sosyal anlam. Bu parça mümkünse, robotların mahremiyet üzerindeki potansiyel etkisini azaltacak veya çözüm üretecek yollarına işaret ediyor, ancak bazen mahremiyet yasasının mevcut durumu altında telafinin zor olacağını kabul ediyor.”

 

Makaleye aşağıdaki bağlantıdan ulaşabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1599189

Robotlar, Güvenlik ve Mahremiyet

Robotlar, Güvenlik ve Mahremiyet

Robotlar hayatımızın büyük bir bölümünde yer almaya ve hayatımıza artan bir hızla etki etmeye başladı. Evinizde kullandığınız temizlik robotundan tutun endüstriyel üretim, savunma sanayii ve diğer birçok alanda sayıları her geçen gün artıyor. Örneğin, Amazon’un yirmi ana dağıtım deposunda toplam 45.000 robot çalışıyor. Geçen yıl bu rakam 30.000, ondan önceki yıl 15.000 civarındaydı. Yani Amazon her yıl kadrosuna 15.000 robot katıyor.1Günümüzde bu robotlar kendi kendini programlayabiliyor, çevresini algılayıp kararlar alabiliyor. Bundan 100 yıl kadar öncesini düşündüğümüzde, günümüzdeki bu teknolojiler akla getirilmesi imkansız fikirler olarak görülürdü. Ancak teknoloji inanılmaz bir hızla ilerliyor. Ray Kurzweil’e göre 2045 yılında üretilecek bir yapay zeka, bugünkü insan nüfusunun toplam zekasından 1 milyar kat daha güçlü olacak. 2

Yapay zekanın ve robotların kullanımı, kuşkusuz işgücü, zaman ve masraf bakımından bize birçok fayda sağlayacak. Ancak getireceği faydanın yanında birtakım sorunlar doğurması da söz konusu olabilir. Gelişmiş sensörler ile gözlem yeteneğine sahip, her türlü şekil ve boyuttaki robotlar, özel hayatın gizliliği ve kişisel verilerin güvenliği konuları üzerinde dikkatle durmayı gerektiriyor. Güvenlik ve gözlem amaçlı olarak robotlar pek çok alanda kullanıyor. Örneğin, insansız hava araçları havada fark edilmeden günlerce kalabiliyor ve geniş bir coğrafyayı tarayabiliyor. Bu bakımdan ordu ve kolluk güçleri bu teknolojiyi kullanmaya başlamış durumda. Bunun yanında hükümetler, gözlem izlenimi yaratarak istenmeyen davranışları önlemek için sosyal robotları kullanma eğiliminde. Bilgisayar korsanları açısından ise robotik teknolojilerin saldırıya açık alanları, özel yaşama ilişkin bilgilere ulaşabilmek için yeni bir fırsat sunuyor.

Sosyal hayatta kullanılan bu robotlar, ticari işletmeler için veri toplama bakımından harika bir imkan oluşturuyor. Japonya’da kullanılan alışveriş asistanlarını düşünün. 3 Bu makineler müşterileri tanımlayıp onlara erişir ve ürünlere yönelik rehberlik etmeye çalışır. Ancak sıradan mağaza çalışanlarının aksine robotlar işlemin her alanını kaydedebilir ve işleyebilir. Yüz tanıma teknolojisi sayesinde yeniden kolayca tanımlayabilir. Bu müşteri verileri, hem kayıp önleme hem de pazarlama araştırmalarında kullanılabilmektedir. 4

Bunun dışında ev robotlarını düşünelim. Standart ve kızılötesi kameralarla, koku algılayıcılarla, GPS ve diğer sensörlerle donatılabilirler. Bu robotlar, aslında gizlilikle ilgili birçok farklı tehlikeyi de beraberinde getiriyor. Örneğin, evin içinde internete bağlanabilen bir robotun kullanılması, evin iç mekanının görüntülenmesinin yolunu açabilir, tek başına kaldığımız özel alanlara girerek mahremiyeti azaltabilirler. Harika “hafızaları” sayesinde elde ettikleri bilgilerimizi depolayabilirler ve daha da kötüsü bunları başkalarıyla paylaşabilirler.

Tamara Denning, Tadayashi Kohno ve Washington Üniversitesi’ndeki meslektaşları tarafından yapılan bir çalışma, piyasada bulunan ev robotlarının güvensiz olduğunu ve bilgisayar korsanları tarafından ele geçirilebildiğini gösteriyor.5 Washington Üniversitesi’ndeki araştırmacılar, her biri kameralarla donatılmış, kablosuz ağ oluşturma özelliğine sahip üç robota, WowWee Rovio, Erector Spykee ve WowWee RobotSapien V2’ye baktı. Sonuç, korsanlar, örneğin Rovio veya Spykee’nin veri akışlarını belirleyebilir ve yakındaki konuşmaları dinleyebilir veya robotu çalıştırabilirler.6

Facebook kurucusu Zuckerberg’nin geçtiğimiz yıl laptop kamerasını ve mikrofon girişini bantlaması gündeme gelmişti. Web kameralara karşı güvensizlik bu noktada iken; kaydetme, aktarma, hareket edebilme ve kontrol edilebilme özellikleri sebebiyle ev robotları, güvenlik açığı duygusunu daha da artırmaktadır. Bunun sonucunda hukuki ve teknik sorunlar oluşabileceği gibi etik sorunlarla da karşılaşmamız muhtemel. Örneğin, antropomorfik özelliklere sahip sosyal robotlara karşı insanlar paylaşımda bulunmaya daha meyilli olabilecektir. Bu da kişilerle ilgili bilgi toplayabilmek adına kötüye kullanımın önünü açabilir.

Hukuksal açıdan ise; örneğin, eşinin sadakatsizliğini ortaya çıkarmak isteyen bir eş robotun verilerine başvurabilir mi? Ya da hükümetler devlet güvenliği, gizliliği gereği evin içini izleyebilir mi? Gibi sorular mahremiyet ve güvenlik ile ilgili sorunlara işaret etmektedir. Bu alanla ilgili olarak, robotik teknolojiye uygulanabilecek mevzuat ise şu şekildedir:

Avrupa Birliği Temel Haklar Şartı’nın 8. Maddesi,

2016/679/EU sayılı Tüzük,

95/46/EC sayılı Direktif,

2002/58/EC sayılı Direktif,

2009/136/EC sayılı Direktif,

45/2001 sayılı Tüzük

Yukarıda aktarılan mevzuat kapsamında, veri işlemenin süjesi olan kişinin sürece dair bütün aşama ve olaylarla alakalı olarak önceden bilgilendirilmesi, bir verinin süjesinin veri işleme sürecinin kontrolüne sahip olması ve bu sürece itiraz edebilmesinin her zaman mümkün olması şeklinde düzenlemeler öngörülüyor. Robotların veri kullanımı söz konusu olduğunda da bu düzenlemelerin aynı şekilde geçerli olacağı söylenebilir.7

Sonuç olarak, robotların sosyal hayatımızın vazgeçilmez bir parçası olması uzak bir gelecek değil. Durum gösteriyor ki, mahremiyet ve güvenlik ile ilgili hukuki düzenlemeler yapılmasına ihtiyaç duyulacaktır. Bu düzenlemeler gerekli teknik standartlar oluşturulup,  robotların sosyal boyutu da dikkate alınarak yapılmalıdır.

Selin Çetin

Ayrıca bakınız: https://siberbulten.com/author/selin-cetin/


Alıntı için :

Selin Cetin
"Robotlar, Güvenlik ve Mahremiyet"
Hukuk & Robotik, Friday November 10th, 2017
https://robotic.legal/robotlar-guvenlik-mahremiyet/- 19/09/2021