Yapay Zeka Çözümleri İçin Veri Mahremiyeti İlkeleri

 

Yapay Zeka Çözümleri İçin Veri Mahremiyeti İlkeleri

Kasım 2020

 

Amaç

  1. Bu Kılavuz’un amacı, uygulamalı Bilgi ve İletişim Teknolojileri kapsamında geliştirilen yapay zeka çözümleri bağlamında kişisel ve kişi ile ilgili bilgilerin kullanımına ilişkin yol gösterici ilkeler sağlamak; hükümetler ve şirketler tarafından yapay zeka ile veri işlenmesinde meşru bir temelin önemini vurgulamaktır.
  2. Bu Kılavuz, özellikle yerel düzeyde uygulanacak olan yapay zeka çözümlerine ilişkin veri koruma standartlarında ortak uluslararası asgari bir temel oluşturmayı ve yapay zeka çözümleri açısından mahremiyet hakkının nasıl korunabileceğine dair devam eden tartışmalarda bir referans noktası olmayı amaçlamaktadır.
  3. Yapay zeka çözümleri, tüm yaşamımızı etkileyen kararlar vermek veya yol göstermek üzere tasarlanmaktadır. Bu nedenle, yapay zeka çözümleri şu anda toplum içinde geniş tartışmalara tabidir. Bu tartışma konuları -ayrımcılık yapmama dahil ahlaki, etik ve toplumsal sorunlar- hala çözülmeyi beklemektedir. Yapay zeka çözümleri için veri mahremiyetinin temelleri bu Kılavuz’un odak noktasıdır.
  4. Bu Kılavuz, İnsan Hakları Evrensel Beyannamesi’ne dayanmakta ve onun ruhunu ve anlayışını yansıtmaktadır. Yapay zeka çözümleri geliştirilirken veya kullanılırken, her şeyden önce Madde 7 (ayrımcılık yapmama) ve Madde 12 (mahremiyet hakkı) dikkate alınacaktır. Bu maddelerin konusu ve değeri Medeni ve Siyasi Haklara İlişkin Uluslararası Sözleşmesi’nin 2. ve 3. maddeleri (ayrım gözetmeme) ve 17. maddesinde (gizlilik) bulunmakta ve bunlar Sözleşme’yi onaylayan ülkelerin yükümlülüklerini oluşturmaktadır.

Kapsam 

  1. Bu Kılavuz, kamu ve özel sektör de dahil olmak üzere tüm sektörlerde yer alan yapay zeka çözümlerindeki veri işleme faaliyeti için geçerlidir. Bu bağlamda veri işleme, bir yapay zeka çözümünün tasarımı, geliştirilmesi, işletilmesi ve hizmet dışı bırakılması anlamına gelmektedir.
  2. Bu Kılavuz, yapay zeka çözümlerindeki tüm veri sorumluları için geçerlidir. Bu bağlamda veri sorumlusu, her biri kendi özel vazifesinde tasarımcı, geliştirici veya operatör anlamına gelmektedir.
  3. Bu Kılavuz, ilgili kişilere daha fazla, daha geniş veya herhangi bir şekilde daha iyi haklar, koruma ve / veya çözümler sağlayan herhangi bir yasayı sınırlamamakta veya etkilememektir. Bu Kılavuz, veri mahremiyetiyle ilgili veri sorumluları ve veri işleyenler üzerinde daha yüksek, daha geniş veya daha katı yükümlülükler getiren herhangi bir yasayı sınırlamamakta veya etkilememektedir.
  4. Bu Kılavuz, tamamen özel, kurumsal olmayan veya hane halkı ile ilgili faaliyetler bağlamında bireyler tarafından gerçekleştirilebilecek yapay zeka çözümlerine uygulanmamaktadır.

 

(Taslak Kılavuz 2 Kasım 2020 itibariyle yoruma kapatılmıştır.)

 

Taslak Kılavuzun orijinaline buradan ulaşabilirsiniz:

https://www.ohchr.org/Documents/Issues/Privacy/SR_Privacy/2020_Sept_draft_data_Privacy_guidelines.pdf

Makul Çıkarım Hakkı: Büyük Veri ve YZ Çağında Veri Koruma Kanunu Yeniden Düşünmek

 

Makul Çıkarım Hakkı:  

Büyük Veri ve YZ Çağında Veri Koruma Kanunu Yeniden Düşünmek

 

 

Sandra Wachter  & Brent Mittelstadt

 

Oxford Üniversitesi- Oxford Internet Enstitüsü

 

13 Eylül 2018

 

 

 

Özet

 

“Büyük veri analitiği ve yapay zeka (YZ), bireylerin davranışları, tercihleri ve özel yaşamları hakkında sezgisel olmayan, doğrulanamaz çıkarımlar ve tahminler çizmektedir. Bu çıkarımlar tahmin edilemez değere sahip, son derece çeşitli ve zengin özellikli verilere dayanmakta; ayrıca ayrımcı, yanlı ve istilacı karar alma için yeni fırsatlar yaratmaktadır. Algoritmik hesap verebilirlik ile ilgili hususlar, genellikle bu teknolojilerin hakkımızda öngöremediğimiz, anlayamadığımız veya aksini ispat edemeyeceğimiz, mahremiyete saldıran ve doğrulanamayan çıkarımlar çizmesi ile ilgili endişeleri içermektedir. Veri koruma kanunu, insanların mahremiyetini, kimliğini, itibarını ve özerkliğini korumak içindir; ancak şu anda ilgili kişileri çıkarımsal analitiğin yeni risklerinden korumakta yetersiz kalmaktadır. Avrupa’daki geniş kişisel veri kavramı, bir bireye atıfta bulunan ya da etki eden çıkarımları, tahminleri ve varsayımları içerecek şekilde yorumlanabilir. Kişisel veriler göz önüne alındığında, bireylere veri koruma kanunu kapsamında çok sayıda hak tanınabilir. Bununla birlikte, çıkarımların hukuki durumu hukuk biliminde ağır bir şekilde tartışılmakta ve Madde 29 Çalışma Grubu ile Avrupa Adalet Divanı’nın görüşleri arasındaki tutarsızlıklar ve çelişkiler ile işaretlenmektedir.

Bu makalede de gösterdiğimiz gibi, bireylerin kişisel verilerinin, bunlarla ilgili çıkarımlar yapmak için nasıl kullanıldığı konusunda çok az kontrol ve denetim sağlanmaktadır.Diğer kişisel veri türleri ile karşılaştırıldığında, çıkarımlar Genel Veri Koruma Tüzüğü’nde (GDPR) etkin bir şekilde “ekonomi sınıfı” kişisel veridir.İlgili kişilerin kişisel verilerini bilme(madde 13-15), düzeltme(madde 16), silme(madde 17), bunlara itiraz etme(madde 21) veya aktarma(madde 20) hakları, çıkarımlar söz konusu olduğunda önemli ölçüde azalır ve çoğu zaman veri sorumlusunun çıkarları ile (örneğin ticari sırlar, fikri mülkiyet hakları) daha büyük bir dengeyi gerektirir. Benzer şekilde, GDPR, hassas çıkarımlara (Madde 9) veya çıkarımlarla ilgili zorluklara çözüm bulmada veya bunlara dayanan önemli kararlara karşı yetersiz koruma sağlamaktadır (Madde 22 (3)).

Bu durum tesadüfi değildir.Mahkeme içtihatlarında, Avrupa Adalet Divanı (ECJ; Bavarian Lager, YS. ve M. ve S. ve Nowak) ve Avrupa Adalet Divanı Sözcüsü (AG; YS. ve M. ve S. ve Nowak), veri koruma kanununun işlenmekte olan girdi kişisel verilerinin meşruiyetini değerlendirme ve düzeltme, engelleme ya da silme alanını sürekli olarak kısıtlamıştır. Eleştirel olarak, Avrupa Adalet Divanı aynı şekilde, veri koruma kanununun kişisel verilerin yer aldığı kararların ve karar verme süreçlerinin doğruluğunu sağlamak veya bu süreçleri tamamen şeffaf hale getirmek için tasarlanmadığını açık bir şekilde belirttmektedir.

Avrupa’daki zayıf tartışmalar, çıkarımlara karşı ilgili kişilere sağlanan korumayı daha da zayıflayacaktır. Gizlilik korumasına (ePrivacy Tüzüğü ve AB Dijital İçerik Direktifi) değinen mevcut politika önerileri, GDPR’ın çıkarımlarla ilgili hesap verebilirlik boşluklarını kapatamaz. Aynı zamanda, GDPR ve Avrupa’nın yeni Telif Hakkı Direktifi, ilgili kişilerin kişisel veriler üzerindeki haklarını sınırlandırarak veri madenciliği, bilgi keşfi ve büyük veri analitiğini kolaylaştırmayı amaçlamaktadır.Ve son olarak, yeni Ticaret Sırları Direktifi, bu süreçlerin çıktılarına (ör. modeller, algoritmalar ve çıkarımlar) bağlı ticari çıkarların kapsamlı bir şekilde korunmasını sağlar.

Bu yazıda, şu anda yüksek riskli, mahremiyete saldıran ya da itibara zarar verici olan ve öngörücü ya da kanaat temelli olma anlamında düşük doğrulanabilirliğe sahip çıkarımların oluşturduğu hesap verebilirlik açığının kapatılmasına yardımcı olmak için ihtiyaç duyulan yeni bir veri koruma hakkı olarak “makul çıkarım hakkı”nı tartışıyoruz. Algoritmaların bireyler hakkında ‘yüksek risk çıkarımları’ çizdiği durumlarda, bu hak, bir çıkarımın makul olup olmadığının belirlenmesi için veri sorumlusu tarafından önceden tahmin edilen bir  gerekçelendirme yapılmasını gerektirecektir. Bu açıklama, (1) belirli verilerin neden çıkarımlar yapmak için uygun bir temel oluşturduğunu; (2) bu çıkarımların, seçilen işleme amacına veya otomatik karar türüne neden uygun olduğu ve (3) çıkarımları çizmek için kullanılan veri ve yöntemlerin doğru ve istatistiksel olarak güvenilir olup olmadığı ele alacaktır. Önceden tahminin gerekçelendirmesi, mantıksız çıkarımlara meydan okunmasını sağlayan ek bir aktüel mekanizma ile desteklenmektedir. Bununla birlikte, makul çıkarım hakkı, AB içtihadıyla uzlaştırılmalı ve IP ve ticari sırlar kanunu ile ifade özgürlüğü ve AB Temel Haklar Şartı’nın 16. Maddesi: bir işi yürütme özgürlüğü ile dengelenmelidir.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3248829

Büyük Veri Çağında Seçmen Mahremiyeti

 

Büyük Veri Çağında Seçmen Mahremiyeti

 

Ira Rubinstein

New York Üniversitesi – Bilişim Hukuku Enstitüsü

 

26 Nisan 2014

 

 

 

 

Özet

 

“Önceki pek çok seçim döneminde, büyük siyasi partiler için başkanlık kampanyaları ve diğer önemli seçimler, veriye odaklı hale gelmişti.  Başkanlık kampanya organizasyonları ve iki ana parti (ve onların veri danışmanları), her bir Amerikan seçmenine özgü olağanüstü ayrıntılı siyasi kayıtlar hazırlamakta ve bunların devamlılığını sağlamaktadır. Bu veritabanları, her biri yüzbinlerce veri noktasına sahip yüz milyonlarca bireysel kayıt içerir.Çünkü bu veriler bilgisayar ortamına uyarlanmıştır; adaylar, ucuz ve neredeyse sınırsız depolama, çok hızlı işleme ve ilginç seçmen kalıplarının veri madenciliğine girme kolaylığından yararlanır. 

Veri odaklı siyasi kampanyaların ayırt edici özelliği, siyasi aktörlerin, mikro hedefleme ile seçmenleri kaydetmesi, harekete geçirmesi, ikna etmesi ve seçim gününde ya da öncesinde oylamada daha iyi sonuçlar elde etmeyi hedeflemesidir. Seçmen mikro hedeflemesi, seçmenlerin, çevrimdışı ve çevrimiçi davranışlarının gözlemlenebilir örüntüleri ile adayı destekleme ve kendisi için oy kullanma olasılıkları arasındaki istatistiksel korelasyonlara dayanan, son derece kişiselleştirilmiş bir şekilde hedeflenmesidir. Başka bir deyişle, modern siyasi kampanyalar, yararlı ve beklenmedik durumların içyüzünün araştırılmasında büyük veri kümelerinin analizine ve genellikle “büyük veri” ifadesiyle özetlenen bir faaliyete dayanır. Büyük verilerin ABD seçimlerindeki önemine rağmen, veriye dayalı kampanyaların mahremiyetle ilgili etkileri, düzenlenmesi şöyle dursun, ayrıntılarıyla araştırılmamıştır bile. Aslında, siyasi kayıtlar çağdaş Amerikan yaşamında kişisel verilerin düzenlenmemiş en büyük kısmı olabilir.

Bu makale, bu dikkatsizliğe çözüm bulmayı amaçlamaktadır. Makale üç bölümden oluşmaktadır. Bölüm I, seçmen verilerinin ana kaynaklarının ilk kapsamlı analizini ve bu veriler için yasal koruma boşluğu bulunduğunu ve bağlantılı veri işleme faaliyetlerini önermektedir. Bölüm II, bireylerin hem tüketici hem de İnternet tabanlı faaliyetlerindeki mahremiyet çıkarlarını ve onların siyasi sürece katılımını; ayrıca bu analizlerin, bilgi gizliliği ve siyasi mahremiyetin geniş bir başlığı altında düzenlenmesini incelemektedir. Yani, birbiriyle ilişkili iki soru sorulmaktadır: ilki, durmak bilmeyen profilleme ve mikro hedeflemenin Amerikalı seçmenlerin mahremiyet alanını işgal edip etmediği (ve eğer öyleyse ne gibi zararlara neden olduğu) ve ikincisi, bu faaliyetlerin seçim sisteminin doğruluğunu ne ölçüde zayıflattığı.Ayrıca, siyasi aktörlerin, mahremiyetle ilgili endişeleri en aza indirmesinin üç sebebini de inceler: şeffaf veri uygulamalarının temel hususlarıyla çatışan mahremiyet konusundaki eğilim; en yüksek ticari gizlilik standartlarını takip ettiğini iddia ederken, tüm seçmen verileri gönüllü olarak temin edilmiş ya da güvenli bir şekilde tanımlanmış gibi ele alarak problemi rasyonel hale getirme eğilimi; ve kullanımlarının demokratik sürece hiçbir etkisi yokmuş gibi ticari takip ve izleme tekniklerinin hatalı bir şekilde benimsenmesi. 

Bölüm III, siyasi aktörlerin kampanya veri uygulamaları konusunda daha şeffaf olması gerektiğini vurgulayıp, zorunlu bir açıklama ve feragat rejimiden oluşan Bölüm II’de tanımlanmış zararları ele almak için ticari veri simsarlarının yeni federal gizlilik kısıtlamaları ve bireylerin, ticari firmaların çevrimiçi aktivitelerini takip edip etmeyeceklerini ve ne ölçüde hedefleme yapabileceklerini kararlaştırabilecekleri (seçmen olarak da) tamamlayıcı bir “Beni Takip Etme” mekanizmasını makul bir teklif olarak sunmaktadır. Makale, bu makul teklifin bile Temel Anayasa tarafından garanti altına alınan siyasi söylem hakları ile çelişki içine girip girmediğini sorgulamaktadır. İki argüman ortaya koymaktadır. Birincisi, Yüksek Mahkeme, diğer düzenleme biçimleri konusunda şeffaflığı benimseyen önde gelen kampanya finansmanı davalarında geliştirilen ve yeniden onaylanan doktrinler temelinde zorunlu mahremiyet açıklamalarını ve feragatnameleri desteklemeyi sürdürecektir. İkinci olarak, Mahkeme, siyasi aktörlere dayatılabilecek ağır yüke ve dikkat çeken son  Sorrell v. IMS Health kararına rağmen, Temel Anayasa doktrinleri kapsamında uzun zamandır devam eden ticari gizlilik düzenlemelerini anayasal olarak görmeye devam edecektir.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2447956

Google’daki Yapay Zeka: İlkelerimiz

 

Google’daki Yapay Zeka: İlkelerimiz

Related image

Sundar Pichai

 

Sundar Pichai

CEO

7 Haziran 2018

 

 

 

Yapay zeka özünde, öğrenen ve adapte olan bir bilgisayar programıdır. Her problemi çözemez, ancak hayatlarımızı iyileştirme potansiyeli çok büyüktür. Biz Google’da yapay zekayı – spam gelmeyen ve kolay oluşturulan e-postalardan, doğal bir şekilde konuşabileceğiniz dijital asistanlara, hoşunuza gidebilecek fotoğrafların önünüze çıkmasına kadar- ürünlerimizi daha faydalı olması için kullanıyoruz.

Ürünlerimizin ötesinde, yapay zekayı insanların acil problemlerini çözülmesinde yardımcı olmak için kullanıyoruz. Bir çift lise öğrencisi, orman yangını riskini tahmin etmek için YZ destekli sensörler üretiyor. Çiftiler onu sürülerinin sağlığını izlemek için kullanıyorlar. Doktorlar, kanseri teşhis etmeye ve körlüğü önlemeye yardımcı olmak için YZ kullanmaya başlıyor. Bu belirgin faydalar, Google’ın YZ araştırma ve geliştirmeye büyük yatırımlar yapmasını ve YZ teknolojilerinin diğerleri tarafından, Google’ın araçları ve açık kaynak kodları vasıtasıyla yaygın şekilde kullanılabilmesini sağlamaktır.

Bu güçlü teknolojinin, kullanım konusunda eşit derecede güçlü sorular ortaya koyduğunu biliyoruz. YZ’nin nasıl geliştirildiği ve kullanıldığının yıllar boyunca toplum üzerinde önemli bir etkisi olacak. YZ’de bir lider olarak, bunu doğru yapmak için büyük bir sorumluluk hissediyoruz.  Bu sebeple bugün, ilerleyen çalışmalarımıza rehberlik etmesi için yedi ilkeyi ilan ediyoruz. Bunlar teorik kavramlar değildir; araştırma ve ürün geliştirmemize aktif olarak yön verecek ve iş kararlarımızı etkileyecek somut standartlardır.

Bu alanın dinamik ve gelişmekte olduğunu kabul ediyoruz ve çalışmalarımıza alçakgönüllülük, içsel ve dışsal bağlılık taahhüdü ile; ve zaman içinde öğrendiğimiz yaklaşımımızı adapte etme isteğimizle yaklaşacağız.

Yapay Zeka Uygulamaları için Hedefler

YZ uygulamalarını aşağıdaki hedefler doğrultusunda değerlendireceğiz. İnanıyoruz ki YZ:

  1. Sosyal açıdan faydalı olmalı.

Yeni teknolojilerin genişletilmiş erişimi, bir bütün olarak topluma giderek daha fazla dokunuyor. YZ’deki ilerlemeler, sağlık, güvenlik, enerji, ulaşım, üretim ve eğlence gibi çok çeşitli alanlarda dönüştürücü etkilere sahip olacak. YZ teknolojilerinin potansiyel gelişimini ve kullanımlarını göz önünde bulundurduğumuzdan, geniş bir yelpazede sosyal ve ekonomik faktörleri dikkate alacağız ve olası genel faydaların, öngörülebilir risk ve dezavantajları büyük ölçüde aştığına inandığımız yerde devam edeceğiz.

Ayrıca YZ içeriğin anlamını etraflıca anlama yeteneğimizi geliştirir. Faaliyet gösterdiğimiz ülkelerdeki kültürel, sosyal ve hukuki normlara saygı göstermeye devam ederken, YZ kullanarak yüksek kalitede ve doğru bilgileri hazırlamaya çalışacağız. Teknolojilerimizi ne zaman ticari olmayan bir şekilde kullanılabilir hale getireceğimizi dikkatlice değerlendirmeye devam edeceğiz.

  1. Haksız önyargı yaratmaktan ya da bunu güçlendirmekten kaçınmalı

YZ algoritmaları ve veri tabanı haksız önyargıyı yansıtabilir, güçlendirebilir ya da azaltabilir. Haklı önyargıları, haklı olmayan önyargılardan ayırt etmenin her zaman basit olmadığının; ve kültürler ve toplumlar arasında farklılık gösterdiğinin farkındayız. Özellikle insanlar üzerinde ırk, etnik köken, cinsiyet, milliyet, gelir, cinsel yönelim, yetenek ve siyasi veya dini inanç gibi hassas niteliklerle ilgili haksız etkilerden kaçınmaya çalışacağız.

  1. Güvenlik için inşa edilmeli ve test edilmeli

Zarar riskine yol açan istenmeyen sonuçları önlemek için güçlü güvenlik ve koruma uygulamalarını geliştirmeye ve uygulamaya devam edeceğiz. YZ sistemlerimizi uygun şekilde ihtiyatlı olmak için tasarlayacağız ve bunları YZ güvenlik araştırmasında en iyi uygulamalara göre geliştirmeye çalışacağız. Uygun durumlarda, YZ teknolojilerini kısıtlı ortamlarda test edeceğiz ve dağıtımdan sonra çalışmalarını izleyeceğiz.

  1. İnsanlara karşı sorumlu olmalı

Geri bildirim, ilgili açıklamalar ve itiraz için uygun fırsatlar sunan YZ sistemleri tasarlayacağız. Bizim YZ teknolojilerimiz uygun insan yönlendirmesine ve kontrolüne tabi olacaktır.

  1. Gizlilik tasarım ilkelerini kapsamalı

Gizlilik ilkelerimizi, YZ teknolojilerimizin geliştirilmesine ve kullanımına dahil edeceğiz. Bildirim ve onay için fırsat verip, gizlilik önlemleri ile yapıları teşvik edip, verilerin kullanımı üzerinde uygun şeffaflığı ve kontrolü sağlayacağız.

  1. Yüksek bilimsel başarı standartlarını desteklemeli

Teknolojik yenilik, bilimsel yönteme dayanmaktadır ve açık sorgulama, entelektüel titizlik, dürüstlük ve işbirliği için bir taahhüt kaynağıdır. YZ araçları biyoloji, kimya, tıp ve çevre bilimleri gibi kritik alanlarda yeni bilimsel araştırma ve bilgi alanlarını ortaya çıkarma potansiyeline sahiptir. YZ gelişimini ilerletmek için çalışırken, yüksek standartlarda bilimsel başarı arayışındayız.

Bilimsel olarak titiz ve çok disiplinli yaklaşımları kullanıp, bu alanda düşünceli(anlayışlı) liderliği teşvik etmek için bir dizi paydaşla birlikte çalışacağız. Ayrıca, eğitim materyallerini ve en iyi uygulamaları yayınlayarak YZ bilgisini sorumlu bir şekilde paylaşacağız ve daha fazla insanın yararlı YZ uygulamaları geliştirmesini sağlayacak araştırmalar yapacağız.

  1. Bu ilkelere uyan kullanımlar için geçerli kılınmalı

Birçok teknolojinin birden fazla kullanımı vardır. Potansiyel olarak zararlı veya taciz edici uygulamaları sınırlandırmak için çalışacağız. YZ teknolojilerini geliştirip uygularken, aşağıdaki faktörlerin ışığında olası kullanımları değerlendireceğiz:

  • Birincil amaç ve kullanım: Çözümün zararlı bir kullanımla ne kadar yakından ilişkili olduğu veya ona uyarlanabileceği de dahil olmak üzere, bir teknoloji ve uygulamanın birincil amacı ve olası kullanımı.
  • Mahiyet ve teklik: Benzersiz veya daha genel şekilde mevcut olan teknolojiyi sağlanması.
  • Ölçü: Bu teknolojinin kullanımının önemli bir etkisi olması.
  • Google’ın dahil olmasının mahiyeti: Genel amaçlı imkanlar sağlanması, imkanların müşterilere entegre edilebilmesi veya özel çözümler geliştirilmesi.

YZ Uygulamalarını İzlemeyeceğiz

Yukarıdaki amaçlara ek olarak, YZ’yi aşağıdaki uygulama alanlarında tasarlamayacağız veya kullanmayacağız:

 

  1. Genel bir zarara neden olan ya da neden olması muhtemel olan teknolojiler. Maddi bir zarar riski olduğunda, sadece faydaların risklerden önemli ölçüde ağır bastığına inandığımız ve uygun güvenlik kısıtlarını içeren noktaya ilerleyeceğiz.
  2. Temel amacı veya uygulaması, insanlara zarar vermek veya doğrudan zarar vermeyi amaçlayan silahlar veya diğer teknolojiler.
  3. Amacı, uluslararası hukukun ve insan haklarının yaygın olarak kabul edilen ilkelerine aykırı olan teknolojiler.

 

Silah kullanımında YZ geliştirmiyor olmamıza rağmen, çalışmalarımızı başka alanlardaki hükümetlerle ve orduyla sürdüreceğimizi açıkça belirtmek isteriz. Bunlar arasında siber güvenlik, eğitim, asker yetiştirme, gazilerin sağlık bakımı ve arama ve kurtarma yer alıyor. Bu işbirlikleri önemlidir ve bu kuruluşların kritik çalışmalarını artırma ;ve hizmet üyelerinin ve sivillerin güvende olmaları için aktif olarak daha fazla yol arayacağız.

Uzun vadede YZ

Bu, bizim yapay zekaya nasıl yaklaşmayı seçtiğimizin konusu olsa da, bu konuşmada birçok ses için yer var. YZ teknolojileri ilerledikçe, bu alanda düşünceli(anlayışlı) liderliği teşvik etmek ve bilimsel olarak titiz ve çok disiplinli yaklaşımları benimsemek için bir dizi paydaşla birlikte çalışacağız. Ayrıca YZ teknolojilerini ve uygulamalarını geliştirmek için öğrendiklerimizi paylaşmaya devam edeceğiz.

Bu prensiplerin şirketimiz ve gelecekteki YZ gelişimi için doğru bir temel olduğuna inanıyoruz. Bu yaklaşım, 2004 yılında asıl Kurucularımızın Mektubu’nda belirtilen değerler ile tutarlıdır. Kısa vadeli bir vazgeçme anlamına gelse bile, uzun vadeli bir bakış açısı alma niyetinizi açıkça belirledik. Bunu daha önce söylemiştik ve şimdi inanıyoruz.

 

Metnin orijinaline aşağıdan ulaşabilirsiniz:

https://blog.google/topics/ai/ai-principles/

 

Robotlar, Yapay Zeka ve Hukuksal Tartışmalar

Robotlar, Yapay Zeka ve Hukuksal Tartışmalar

Türkiye’de bilişim hukuku alanında yetkin isimlerden biri olan, Medipol Üniversitesi’nden Doç. Dr. Volkan Dülger ile robotlar, yapay zeka ve yaratabilecekleri muhtemel hukuksal sorunların çözüm yolları üzerine konuştuk.

 

Keyifli okumalar…

 

Çetin:Yapay zekâ teknolojisinin yaratabileceği mahremiyet ve gizlilik sorunları karşısında sizce ne gibi düzenlemelere gidilmeli?

Dülger: İnsanlık var olduğu tarihten bu yana ihtiyaçlarına cevap verecek ve hayatını kolaylaştırıp kendisine yardım edecek araçların yapımı için uğraşmıştır. Bu araçların yapımı için ise bilgi, yetenek ve deneyime gereksinim vardır. İşte bu noktada teknoloji dediğimiz kavram gündeme gelir. Kısaca insanların kendisine yardımcı olacak araç ve gereçleri yapmak, üretmek veya geliştirmek için gereksinim duyduğu ve bilimsel ilerlemeye bağlı olarak gelişen ve artan araçlara teknoloji denir. Teknoloji, yapılan araştırmalar, çalışmalar ve deneyler ile gün geçtikçe gelişmekte ve şaşırtıcı boyutlara ulaşmaktadır.

Bilimsel ilerlemeler ile teknolojik gelişmeler sayesinde bilişim ve iletişim dünyasında meydana gelen gelişmelerle hayatımız ciddi bir biçimde değişmiş ve kolaylaşmış durumda. Bilgisayar, telefon ve internetle dünyanın öbür ucuyla iletişim sağlanabilirken; ulaşım araçları sayesinde dünyanın dört bir yanı ulaşılabilir hale gelmiştir. Sağlık alanına baktığımızda gerçekleştirilen ameliyatlar, röntgen ve filmler, kan tahlilleri ve DNA araştırmaları gibi faaliyetler tamamen bilimsel ilerleme ve teknolojiyle bağlıdır. Böylece tanı, tedavi yöntemleri ve tedaviye ulaşma hızı dolayısıyla da insan ömrünün uzaması açısından teknolojinin büyük katkıları olduğunu söylemek mümkündür. Hukuk ve özellikle ceza hukuku alanında ise teknoloji kullanılmadan yargılama yapılması ve suçluların yakalanması neredeyse imkansız hale gelmiştir. Güvenlik kameraları, kan ve parmak izleri ve takip sistemleri gibi teknolojiler, ceza soruşturma ve kovuşturmalarında sıklıkla kullanılmaktadır.

Görüldüğü gibi iletişim, ulaşım, sağlık, hukuk ve daha birçok alanda teknoloji ve teknolojinin getirdikleri vazgeçilmez hale gelmiştir. Nitekim teknoloji ürünlerinin sağladığı kolaylıklarla  hayatımızın bir parçası haline geldiği açık bir gerçektir. Öyle ki artık teknolojinin sağladığı fayda ve kolaylıklar olmadan bir yaşam sürülmesi düşünülememektedir. Peki hayatımızı bu denli kolaylaştıran teknoloji gerçekten bu kadar masum mu, hiç mi zararı yok? Maalesef durum böyle değil. Teknolojinin getirdikleri kadar götürdükleri de mevcut ve hatta bazı kesimler tarafından götürdüklerinin daha fazla olduğu iddia edilmekte. Ben bu düşüncede olmasam da faydalarının yanında birçok zararının da olduğunu inkâr etmek mümkün değil.

Teknolojiyle beraber gelişen savaş araçları, hava ve çevre sorunları, yer altı ve yer üstü kaynaklarının tükenmesi ve teknolojik araçların yaydığı elektromanyetik dalgaların canlılar üzerindeki zararı, teknoloji ile hayatımıza giren zorlukların ilk akla gelenleridir. Somut ve maddi örneklerin yanı sıra esasen en büyük zarar, insanların sosyal hayatı üzerinde gerçekleşmektedir. İnsanların, teknolojinin sağladığı kolaylıklardan sonra tembelleştiği ve sanallaştığı gözlemlenmektedir. Böylece depresyon, stres ve uykusuzluk gibi birçok problemi de beraberinde getirmiştir. Sosyal medya araçları sayesinde kendini daha kolay, hızlı ve daha geniş kitlelere ifade edebilen ve düşüncelerini paylaşabilen insan; diğer yandan yüz yüze iletişime geçmeyen, sanal ve bağımlı bir varlığa dönüşmüştür. Hal böyle olunca hayatımıza teknoloji bağımlılığı adıyla yeni bir hastalık türü girmiş ve çağın hastalığı olarak da kabul edilmeye başlanmıştır. Teknoloji bağımlılığı ile mücadele amacıyla birçok kuruluş harekete geçmiş ve çalışmalara başlamıştır.

Teknolojinin fayda ve zararlarının birleştiği en önemli nokta ise bilgi alışverişinin gerçekleşmesi noktasındadır. Özellikle internet aracılığıyla olmak üzere, bilişim ve iletişim teknolojilerinin gelişmesiyle bilgi alışverişi çok kolay ve hızlı hale gelmiştir. Bugün saniyeler içerisinde çok büyük sayıda verilerin tutulması, işlenmesi ve aktarılması mümkündür. Bununla birlikte verilerden yola çıkılarak veri sahibine de kolaylıkla ulaşılabilmektedir. Bu durum sağladığı faydaların yanında bireylerin kendilerine ait olan bilgilerinin, bu bilgilerle hiçbir ilgisi ve menfaati olmayan üçüncü kişilerin eline geçmesi ve bu bilgilerin üçüncü kişiler tarafından hukuka uygun veya aykırı olarak kullanılması tehlikesini gündeme getirmiş ve bu konuda endişe edilmeye başlamıştır. Bu endişelerin çıkış noktası daha basit teknolojilere dayanmış olsa da büyümesi ve ciddi boyutlara ulaşması günümüz teknolojisiyle gerçekleşmiştir.

Bugün teknolojide ulaştığımız son noktanın ise bundan kısa bir süre önce hayal etmesi bile zor olan ve hayal edilse dahi gerçekleşmesine imkânsız gözüyle bakılan gelişmelerden oluştuğunu görüyoruz. Özellikle yapay zekâ alanında gelinen nokta hem heyecanlandırıcı hem de olası senaryolar karşısında düşündürücü niteliktedir. Zira yapay zekalı varlıkların birçok mesleğin yerine geçebileceğini, cerrahi operasyonlar yapabileceği, doksan yıl içinde kendilerinin dahi yapay zekâ araştırmaları yapabileceği ve hatta bu varlıkların yüz yıl sonra bizler gibi olabileceği konuşuluyor. Yapay zekadan beklenen öğrenme, öğrendiğini analiz etme ve analiz çıktısını yorumlayarak karar verme, hatta söz konusu olan bir yapay zekalı robotsa hareket etme aşamalarını gerçekleştirebilmesidir. Bu amaçlarla devam eden yapay zekâ çalışmaları ve bu çalışmaların mevcut ürünleri düşünüldüğünde söz konusu ihtimaller pek de imkânsız görünmemekte.

Yapay zekalı varlıkların öngörülen geleceğini insanlık için tıpkı teknolojideki gelişmeler gibi faydalı ve yardımcı olacağını savunanlar kadar; tam aksine insanlar için tehlikeli olarak değerlendiren kesimler de mevcut. Peki bu tehlikenin kaynağı nedir? İnsanlar gibi araştırma yapabilecek, insanların gerçekleştirdiği meslek faaliyetlerinde onlara yardımcı olabilecek ve insan hayatında kahve içeceği saati, ne zaman nereye gideceğini bile tahmin edebilmek gibi birçok kolaylık sağlayabilecek olan yapay zekalı varlıkların ne gibi bir riski olabilir? Aslında bu sorunun cevabı tam da kendisi. Saydıklarım her ne kadar ilk bakışta yapay zekâ teknolojisinin ne kadar harika olduğunu düşündürtse de esasen olası tehlikeleri de anlatmaktadır. Yapay zekalı varlık sizin kahve içeceğiniz saati nerden bilebilir? Kullanmanız gereken ilacı ve ilaç saatinizi hatırlatacak olması nasıl mümkün olabilir? Aileniz ve yakın çevrenizi nereden tanıyabilir? Bütün bu soruların tek cevabı var: Veri, özellikle de kişisel veri! Yapay zeka teknolojisi kendisine yüklenen veriler üzerinde zihinsel faaliyetler gerçekleştirir ve ortaya sonuçlar çıkarır. Dolayısıyla esas olarak verilerden yola çıkar, burada da karşımıza büyük veri (big data) kavramı karşımıza çıkar. Yapay zekanın gerçekleşmesi, yapay sinir ağlarının gelişmesine bu da çok sayıda verinin üretilmesi, depolanması, erişilebilmesi ve bunların işlenmesine bağlıdır.

Verileri kullanarak insan zekasını taklit eden faaliyetlerde bulunan yapay zekalar, birçok farklı açıdan bu faaliyetleri insan zekasından daha iyi gerçekleştirebilmektedir. Yapay zekanın; doğal zekâ yani insan zekası gibi belli bir ömrü ve kapasitesinin olmaması, yapay zeka algoritmalarıyla donatılmış bir makine içindeki verilerin kolaylıkla kopyalanabilmesi ve belli bir sistem üzerinde kurulmuş olması itibariyle her durumda aynı ve objektif tepkiler verebilmesi kendisine yüklenen verilerin analizini yapma sürecinde insan zekasından daha üstün olduğu yönlerdir.

Bireylere ait verileri bu denli etkin ve ölçüsüz bir biçimde kullanabileceği öngörülen yapay zekaların, bu veriler üzerinde gerçekleştirecekleri faaliyetler sonucu hukuka aykırı kullanımlara ve insan hakları ihlallerine neden olabileceklerinden endişe edilmektedir. Zira halihazırda yapay zekâ algoritmalarının kullanıldığı alanlarda insan haklarının yoğun bir biçimde ihlal edilmesi ve tehlike altında olması bu endişeleri kuvvetlendirmektedir. Endişelerin esas yaşandığı ve toplandığı nokta ise bireylerin özel hayatın gizliliği ve özel hayata saygı hakkı kapsamında mahremiyet ve giz alanına ilişkindir.

Mahremiyet hakkı 1970 tarihli “Kitlesel İletişim Araçları ve İnsan Hakları Bildirisi” ile bir kişinin hayatını minimum müdahaleyle yaşama hakkı olarak tanımlanmıştır. Kişinin özel, fiziksel ve ruhsal bütünlüğü, onur ve itibarı ile aile hayatı bu kapsamdadır. Avrupa İnsan Hakları Sözleşmesi’nin özel yaşam ve aile hayatı hakkı başlıklı 8. maddesi ile de mahremiyet hakkının da korunduğu AİHM içtihatlarında açıkça belirtilmektedir.

Buna göre kişi kendi bütünlüğü ile özel ve aile yaşamı alanlarına en az müdahale ile hayatını sürdürebilmelidir. Oysa günümüz teknolojisi ve yapay zekalı varlıkların geleceği bu hak üzerinde maksimum düzeyde müdahale edebilecek nitelikte üretilmekte ve dizayn edilmektedir. Bunun nedeni söz konusu teknolojileri her kullandığımızda ardımızda dijital izler bırakmamızdır. Dijital alanda ve buna bağlı olarak internette attığımız her adım; hangi web sitelerine girip ne araştırdığımız, ziyaret ettiğimiz alışveriş sitelerinde hangi ürünlere baktığımız hatta nerelerde yemek yediğimiz ve kimlerle olduğumuz gibi en mahrem alanımıza ilişkin bilgiler sürekli kaydedilmektedir. İşin ilginç tarafı kimsenin bilmesini ve ulaşmasını istemeyeceğimiz bu bilgileri çoğu zaman kendi ellerimizle ortalık yere bırakmamızdır.

Günümüzde büyük ölçüde teknolojinin gelişmesiyle ortaya çıkan tehlikeler dolayısıyla kişisel verilerin korunmasına ilişkin sorunlar daha iyi anlaşılmış ve özellikle 1980’li tarihlerden itibaren Avrupa Birliği’nin bu yöndeki çalışmaları neticesinde kişisel verilerin korunması hakkı oluşmuştur. Ülkemizde de kişisel veriler 7 Nisan 2016 tarihinde yürürlüğe girmiş olan 6698 sayılı Kanun ve ilgili Yönetmeliklerle korunmaktadır. Ayrıca kişisel verilerin hukuka aykırı olarak kaydedilmesi ve yayılması Türk Ceza Kanunu ile de zaten suç olarak düzenlenmiştir.

Bununla beraber teknolojinin gelişmesi ve yapay zekalı varlıkların iyiden iyiye hayatımıza girmesi ile bu korumaların yetersiz kalacağında şüphe yoktur. Ki ben yapay zekalar tarafından kişisel verilerimizin hukuka aykırı bir biçimde kullanılması ile yakın bir gelecekte karşı karşıya kalacağımızı düşünüyorum. Gelinen nokta düşünüldüğünde yukarıda detaylı bir biçimde bahsettiğim olası tehlikelerin çok da uzak olmadığını öngörüyorum. Bu nedenle teknoloji ve yapay zekalar konusunda hukuk düzleminde de çalışmalara başlanmalı ve düzenleme yapma yoluna gidilmelidir.

Bu kapsamda ilk olarak hukuki statü tartışması çözümlenmelidir. Ardından günümüz dünyasında kişisel verilerin kullanımı olmadan hayatın devam edilmesinin mümkün olmadığından artık şüphe edilmediğinden yapay zekalı varlıklar ile beraber bu zekaların da kişisel veriye ihtiyaç duyacağı kesindir. Öyleyse yapay zekalar tarafından hangi hallerde kişisel veri kaydedileceği, işleneceği ve/veya aktarılabileceği hukuki düzenlemelerle belirlenmelidir. Sözgelimi bir yapay zekalı varlığın elinde bulundurduğu kişisel veriyi hangi şartlar altında başka bir yapay zekalı varlığa aktarabileceği öngörülebilir olmalıdır. Bundan sonra bu varlıkların mahremiyet ve özel hayata saygı hakkı başta olmak üzere temel insan haklarını ihlal etmeleri halinde hukuki ve cezai sorumlulukları düzenlenmelidir.

Çetin:Yapay zekâlı robotun ölümlü kazaya sebep olduğu bir senaryoda, hangi şartlarda robotun cezai sorumluluğundan bahsedebiliriz?

Dülger: İlk olarak yapay zekalı varlıkların hukuki statüsü ile hukuki ve cezai sorumluluğunu belirleyen yasal düzenlemeler olmadığını ancak teknolojinin gelişmesiyle düzenleme yapılması ihtiyacının gündeme geleceğini belirtmeliyim. Bunun nedeni hukuk düzenimizde Roma Hukuku’nda beri süregelen kişi ve eşya ayrımına yer verilmiş olmasıdır. Oysa yapay zekalı varlıkların insanın tabi olduğu düzenlemelere konu olmasının mümkün olmadığı gibi; eşya tanımı kapsamında değerlendirilebilmesi de imkansızdır. Yapay zekalı robotların basit bir eşya tanımının çok ötesinde olduğundan şüphe yoktur. Bu nedenle artık geleneksel hukuk anlayışının sınırları aşılarak yapay zekalı varlıkların hak ve yükümlülüklerini belirleyen düzenlemeler için çalışmalara başlanmalıdır. Ancak henüz mevcut bir düzenleme bulunmadığından bu noktada yalnızca olması gerekeni konuşabiliriz.

Yapay zekalı robotların cezai sorumluluğunun olup olamayacağı; olacaksa da bunun nasıl belirleneceği sorularının tespiti için öncelikle otonom-yarı otonom araçlar ile gerçek anlamda yapay zekalı varlıklar ayrımına dikkat çekmek gerekir. Otonom-yarı otonom araçlar bakımından bu problemi çözmek basittir. Bu araçlar bilinç sahibi olmadığı ve gerçek kişiler tarafından yönetildiği için bu araçların sebep olduğu zararlardan bunları yöneten ya da duruma göre üreten gerçek kişiler sorumlu olacaktır. Çünkü bu araçlar gerçek kişilerin verdiği komutlara göre hareket eder ve dolayısıyla bu araçların hukuki veya cezai sorumluluğundan bahsedilemez.

Sorumluluğun tespit edilmesinde asıl problem gerçek anlamda yapay zekalı varlıklar açısından ne olacağıdır. Son kararı kendisi verebilecek yapay zekalı bir robotun araba sürücü olması ve arabayı çarpmamak adına başka birine çarpması halinde kasten ya da taksirle öldürme suçunun faili kim olacaktır? Başka bir ihtimalde, cerrahi operasyon yapabilen bir robot ihmali neticesinde hastanın ölümüne sebep verirse sorumlu kim olacaktır? Yapay zekalı robotun kendisi mi, eğer bir sahibinin olduğu kabul edilirse sahibi mi, yoksa robotun üreticisi mi?

Yapay zekalı robotun sahibi olduğu kabul edilirse robotun eşya statüsünde değerlendirilmesi gerekir. Oysa bu yapay zekaların bir yöneticisi ve komut vereni yoktur. Dolayısıyla kendi kararlarını kendi verebilmektedir. Dolayısıyla bir sahibinin olduğundan bahsedilemeyecektir. Bilinçli hareketleri ile gerçekleştirdiği davranışları sonucu doğan zararlardan üreticinin de sorumluluğuna gidilmesi mümkün olmamalıdır. Hiçbir kusuru olmayan üreticinin suçun faili olarak kabul edilmesi suçun şahsiliği prensibine aykırıdır. Öyleyse kendi iradesi ile bilinçli olarak hareket eden ve bu hareketi sonucunda tipik bir suçun meydana gelmesine neden olan yapay zekalı robotun söz konusu suçun faili olarak kabul edilmesi gerekir. Ancak mevcut ceza hukuku sistemimizde bir suçun faili ancak gerçek kişiler olabilir.

Görüldüğü gibi sorumluluğun tespitinde farklı ihtimalleri değerlendirdiğimizde halihazırda bulunan yasal düzenlemeler hiçbirine cevap verememekte ve bir noktada tıkanmaktadır. Bu nedenle kişi ve eşya ayrımının yanına yapay zekalı robotların da hukuk düzeninde tanımlaması yapılmalı ve hukuki statüsü belirlenmelidir. Burada dikkat edilmesi gereken nokta genel bir tanımdan ziyade bunların otonom-yarı otonom ve gerçek yapay zekâlı varlıklar gibi derecelendirilerek ayrılması gerektiğidir. Zira yapay bir bilinç ve kendi kendine karar verebilme kavramının derecesi hepsinde aynı değildir. Dolayısıyla sorumluluğun boyutu da farklılık gösterebilecektir.

Bu bilgiler ışığında yapay zekalı robotun ölümlü bir kazaya sebep olmuş olması ihtimalinde; sorumluluk, şu aşamalar esas alınarak belirlenmelidir:

  • İlk olarak kazaya sebep olan robotun Anayasa ve Medeni Kanun ile belirlenmiş olan tanımı ve hukuki statüsü tespit edilmelidir. Kaza, verilen bir komut sonucunda mı gerçekleşmiş yoksa robotun kendi bilincinden ve iradesinden bahsedilebiliyor mu? En uç ihtimalde biyolojik insan faktörleri mevcut mu? Bu ihtimaller değerlendirilmelidir.
  • Kazanın yapay zekalı varlığın bilinçli hareketleri neticesinde gerçekleştiği sonucuna varılırsa suçun unsurlarının oluşup oluşmadığına bakılmalıdır.
  • Son olarak somut olayda gerçekleşen suça, yapay zekalı robotun sorumluluğunun öngörüldüğü hukuk prensiplerince belirlenmiş olan ceza yaptırımı uygulanmalıdır.

Burada tartışılması gereken bir diğer problem de insanlar için belirlenmiş olan ceza yaptırımlarının robotlar üzerinde ne kadar etkili olacağıdır. Ceza hukuku yaptırımlarının esas çıkış noktası suçun işlenmesi aşamasından önce caydırıcı etkisidir. Hapis cezasına hükmedileceğini düşünen insan ailesinden ve sevdiklerinden ayrı kalacağını düşünerek cayabilecekken; yapay zekalı robot için bu durumun caydırıcı bir etkisi olabilir mi? Yoksa daha ilerde tıpkı insan gibi duygulara sahip olan robotlar var olacak mı?

Suçun işlenmesi aşamasından sonra ceza hukukunun amacı suçluyu ıslah etmeye yöneliktir. Hapis cezasına hükmedilen suçlunun, bu süre içerisinde işlediği suçtan pişman olup bir daha suç işlememesi gerektiğini kavrayabilmesi amacı söz konusudur. Yapay zekalı robotun pişmanlığından ve ıslahından söz edilebilecek mi?

Ceza ile birlikte veya cezadan ayrı olarak bir güvenlik tedbirine hükmedildiğinde bunun robot için anlamı ve gerekliliği nedir? Bir yazılım güncellemesi ile her sorun çözülebilecek iken, güvenlik tedbiri olarak yapay zekalı robotun bir kenarda çürümeye bırakılması ne kadar gerçekçi ve mantıklıdır?

Görüldüğü üzere yapay zekalı varlıkların hukuki statüsü ile hukuki ve cezai sorumluluğunun yasalarla öngörülmesi gerektiği kadar; bunun nasıl yapılacağı da büyük bir problem teşkil etmektedir. Düzenlenecek olan yasaların yapay zekalı varlıkların doğası ve özü dikkate alınarak onların ihtiyaçlarına cevap verebilecek nitelikte olması gerekir.

Çetin:Sıradan nesnelere zarar vermekle, insansı özellikleri olsun veya olmasın bir yapay zekâlı robota zarar vermek açısından cezai anlamda fark oluşur mu?

Dülger: İlk olarak soruyu sıradan nesneler ifadesi için eşya kavramını esas alarak cevaplandıracağım. Eşya olarak nitelendirilebilecek nesnelere zarar verildiğinde bu zarar neticesinde Türk Ceza Kanunu’nda düzenlenmiş olan “mala zarar verme” suçu oluşur. Bununla beraber eşya kapsamında değerlendirilebilecek yapay zekalı bir robotun söz konusu olması ihtimalinde bu hallerin de yapay zekalı varlıkların kendilerine özgü düzenlenmiş olan hükümleriyle çözümlenmesi gerekir. Ancak mala zarar verme suçuna benzer bir suç biçiminde düzenlenmesi gerektiğini söylemek mümkündür.

Öte yandan insansı özellikte olmayan ama kişi için bir eşya kavramından çok daha fazlasını ifade eden yapay zekalı varlıklar söz konusu olabilir. Uzaktan haberleşme özelliğine sahip, sizi istediğiniz yerden alacak ve trafiksiz olan en rahat yolu seçecek, sizin sevdiğiniz kahveyi bilip gelmeden onu da yol üstündeki bir kafeden alabilen, dolayısıyla kişisel tercihlerinizi kodlayabileceğiniz yapay zekâya sahip bir aracı sadece eşya olarak nitelemek ne kadar doğru? Çünkü bu durumda kişinin yalnızca bir arabasına zarar vermiş olmazsınız ve kişinin üzerinde arabasına zarar vermiş olduğunuz ihtimaline göre çok daha büyük bir zarar meydana getirmiş olursunuz.

İnsansı özelliklere sahip bir robottan ise insan gibi algılayabilen, öğrenen, kendi kendine karar verebilen ve bilinçli bir şekilde hareket eden yapay zekalı varlık anlaşılmalıdır. Burada mağdur doğrudan varlığın kendisi olabilecek mi? Fail, mala mı yoksa kişiye mi zarar vermekten cezalandırılacak? Bilinci ve muhakeme yeteneği olan bir robota zarar verilmesi halinde doğrudan suçtan zarar görenin robotun kendisi varsayılabiliyorsa; Türk Ceza Kanunu’nda öngörülmüş olan “yaralama” suçuna benzer bir suçun oluşacağını söylemek gerekir. Failin de insansı özelliklere sahip yapay zekalı bir varlığın öngörülmüş olan hukuki statüsüne göre cezalandırılması gerekir.

Söz konusu ihtimallerden üç farklı yapay zekalı varlık tipi anlaşılmaktadır; eşya gibi nitelendirilebilen, insansı özelliklere sahip olmayıp basit bir eşyadan ötesini ifade eden ve insansı özelliklere sahip olan robot. Teknolojinin ve yapay zekanın gelişmesiyle bu tiplerin artacağı kuşkusuzdur. Soruda ise insansı özelliğe sahip olsun veya olmasın ifadesiyle ayrım yapılmaksızın bütün yapay zekâlı robotlar aynı çatı altında değerlendirilmiştir. Oysa böyle bir düzenleme mevcut düzenden bir adım ötesine geçmekten fazlasını vermez. Kaldı ki zaten düzenlemelerin esas noktasını, yapay zekalı varlığın insansı özelliğe sahip olup olmaması oluşturmalıdır. Asıl problem ve tıkanma bu noktada yaşanmaktadır. Dolayısıyla yapay zekalı varlıklar ile ilgili oluşturulacak prensip ve yasal düzenlemelerin genel bir başlık altında toplanmaktan ziyade; geniş bir perspektifle kapsamlı nitelikte olması gerekir.

Çetin:Ütopik bir soru olarak, gelecekte robotların kendi aralarında geçerli olacak bir cezai düzenlemeden bahsedilebilir mi?

Dülger: Yukarıda belirttiğim nedenlerden ötürü mevcut hukuk düzeni robotların kendi aralarında gerçekleşebilecek herhangi bir uyuşmazlığa da cevap vermemektedir. Yapay zekalı robotun bir diğer robotu yaralaması veya başka bir robotun mala zarar vermesi gibi bir senaryo karşısında halihazırda bulunan düzenlemelerle cevap verebilmek mümkün değildir. Bu nedenle yapay zekalı robotların da hukuk süjesi olarak tanımlanıp kendi aralarında yaşanacak uyuşmazlıkların geleceği ve nasıl çözüleceği konusunun belirlenmesi gerekir.

Bununla beraber sadece yapay zekâlar arasında, salt sınıflandırılan yapay zekâların birbirlerine karşı hak ve yükümlülüklerinin düzenlendiği bir sistemin öngörülmesini doğru bulmuyorum. Zira böyle bir yaklaşım ve varsayım suç teorisine aykırı bir durum teşkil edecektir ve ikili bir hukuk düzeni ortaya çıkacaktır. Bunun yerine yapay zekalı varlıklar tanımlandıktan ve hukuki statüsü belirlendikten sonra bu varlıkların tabi olacağı genel hukuk prensiplerine uygun cezai düzenlemelere gidilmesi isabetli olacaktır.

Çetin: Siber güvenlik konusunda, sizce yapay zekâ bir tehlike mi, yoksa avantaj mı?

Dülger: Öncelikle yukarıda da detaylı bir biçimde açıkladığım üzere genel olarak teknoloji ve teknoloji ürünlerinin hayatımızı kolaylaştırmak amacını güttüğünü ancak hayatımızı pek çok farklı açıdan kolaylaştırırken; birçok tehlikeyi de beraberinde getirdiğini kabul etmek gerekir. Yapay zekalı varlıklar açısından da aynı durum söz konusudur. Gerçekleştirdiğimiz mesleki faaliyetlerimizde bize yardımcı olarak işimizi kolaylaştıracak yapay zekalı varlık; bir sonraki adımda mesleki faaliyetin gerektirdiği bütün nitelikleri barındırıp gerçekleştirebildiği zaman işimizi elimizden alabilecek olması itibariyle, geleceğimiz için büyük bir tehlike de barındırmaktadır. Yıllar öncesinde günler ve saatlerimizi harcayan işlemleri şu anda saniyeler içerisinde yapmamızı sağlayan yapay zekâ algoritmaları, bugün, çok kısa süre içerisinde çok büyük boyutlarda kişisel verilerimizi de kaydederek olası insan hakları ihlallerine konu olabilmektedir. Bilişim sektörünün her alanında kullanılan ve bu sektörün gelişmesine katkı sağlayan yapay zekâ teknolojisi diğer taraftan siber saldırı aracı olarak kullanılabilecektir.

Dolayısıyla her açıdan yapay zekalı varlıkların çok önemli faydalarının yanında birtakım tehlikeler barındırdığını da görüyoruz. Ancak bu tehlikeleri esas alarak teknolojiye sırtımızı dönmek çok büyük bir hata olacaktır. Teknolojiye karşı olmak yerine onu takip edebilmek ve bunu fırsata dönüştürebilmek gerekir. Kaldı ki günümüzde teknolojiyi takip etmek bir zorunluluk haline gelmiştir. Teknolojiyi kullanmayan ve teknolojinin nimetlerinden faydalanmayan ülke ve toplumların gelişebilmesi ve yeni dünyaya ayak uydurabilmesi mümkün değildir. Buna en güzel örnek 18. yüzyılın sonlarında Avrupa’da sanayi alanında buhar gücünü kullanma ve makineleşmeyle gerçekleşen teknolojiyi takip edemeyen ülkelerin hala üçüncü dünya ülkesi olmaktan kurtulamamasıdır.

Açıkladığım nedenlerden ötürü teknoloji her ne kadar içerisinde birçok tehlikeyi barındırsa da; korkup kaçılacak bir durum değil takip edilmesi gereken bir zorunluluktur. Teknolojiden en yüksek düzeyde faydalanabilmek için de söz konusu tehlikelerin önceden mümkün olduğunca öngörülerek devletin pozitif yükümlülüğü altında önlenmesi ve bireylerin haklarının korunması gerekir. Teknoloji olmadan günlük hayat dahil olmak üzere spesifik hiçbir alanın devamının ve işleyişinin mümkün olmadığı günümüzde, barındırdığı risk faktörleri nedeniyle teknolojiden kaçmak gerçekçi bir yaklaşım olmadığı gibi akıntıyı tersine çevirmekle de eş anlamlıdır.

Çetin:Türk hukuk sisteminde bu teknoloji bakımından birincil düzenleme ne olmalı?

Dülger: Yapay zekalı varlıkların yasal düzlemde tanımlanması ile hak ve yükümlülüklerinin belirlenmesi, üstelik bu düzenlemelerin birbirinden farklı türlerinin dikkate alınarak dereceli ve kapsamlı bir nitelikte olması gerektiğine yukarıda değindim. Bu düzenlemelerin hangi hukuk prensibi ile nasıl olması gerektiği yönündeki kanaatim öncelik sıralamasına göre aşağıdaki gibidir:

  • İlk olarak konunun Anayasa hukuku bağlamında ele alınması gerekir. Burada yapay zekalı varlıkların hukuki statüsü tanımlanmalı, temel hak ve özgürlükleri açıkça belirlenmelidir.
  • Ardından hukukun temeli olan Medeni Hukuk devreye girmelidir. Kişiler hukuku benzeri “yapay zekalı varlıklar hukuku” benzeri bir başlık öngörülmeli ve bu başlık altında yapay zekalı varlıkların varlığının başlangıcı ve sonu, aile hukuku, miras hukuku ve eşya hukuku ile ilgili hükümler düzenlenmelidir.
  • Bu sırayı ceza hukukunun takip etmesi gerektiği düşüncesindeyim. Yapay zekalı varlıkların dahil olduğu bir ceza hukuku uyuşmazlığında ne yapılması gerektiği ve sorumluluğunun nasıl ve neye göre tespit edileceği açıklığa kavuşturulmalıdır.
  • Son olarak yapay zekalı varlıkların sosyal, ekonomik ve kültürel ilişki ve faaliyetleri söz konusu olacağından ticaret hukuku, iş hukuku, borçlar hukuku gibi farklı hukuk disiplinlerinde de düzenleme yapılmalıdır. Hatta vatandaşlık alan yapay zekalı robotlar düşünüldüğünde milletlerarası hukukun bile devreye girmesi gerektiğini söylemek mümkündür.

 

Değerli Volkan Dülger‘e saygı ve sevgilerle…