Sorumlu Botlar: Etkileşimli Yapay Zeka Geliştiricileri için 10 Öneri

Sorumlu Botlar: Etkileşimli Yapay Zeka Geliştiricileri için 10 Öneri

Öneriler

  1. Botunuzun amacını tek tek belirtin ve botunuzun sonuçta ortaya çıkacak kullanım durumlarını destekleyip desteklemeyeceğine özellikle dikkat gösterin.

Botunuzun amacı etik tasarımın merkezindedir ve etik tasarım, geliştirmekte olduğunuz botun kullanıma sunulmasında özellikle önemlidir. Sonuç olarak ortaya çıkan kullanım durumları arasında sağlık hizmetleri, eğitim, istihdam, finansman ya da bireyin günlük hayatı üzerinde anlamlı ve önemli bir etkisi olacak hizmetlere erişim bulunmaktadır.

  1. Botları ürününüzün veya hizmetinizin bir parçası olarak kullandığınızda şeffaflığa önem verin.

Kullanıcılar, bot teknolojisini kullanımıyla ilgili şeffaf ve açık bir şirkete güvenir ve botun onların ihtiyaçlarını karşılamak için çalıştığını ve sınırları konusunda net olduğunu anladığında bir botun güvenilirliği daha olasıdır.

  1. İnsan-bot değişiminde, botun yetkinliğini aşan etkileşimlere girmesi durumunda sistem yönetiminin bir insana sorunsuz şekilde geçmesini sağlayın.

Botunuz insan kararı gerektirebilecek etkileşimlere girerse, bu noktada bir insan moderatöre sisteme müdahil olması için bir araç veya kolay erişim sağlayın.

  1. Botunuzu ilgili kültürel normlara saygı gösterecek ve yanlış kullanıma karşı korunacak şekilde tasarlayın.

Botların insan benzeri tutumları olabileceğinden, kullanıcılarla saygılı ve güvenli bir şekilde etkileşimde bulunması; yanlış ve kötüye kullanımı ele alan yerleşik güvenlik önlemlerine ve protokollere sahip olması özellikle önemlidir.

  1. Botunuzun güvenilir olduğundan emin olun.

Botunuzun gerçekleştirmeyi amaçladığı işlev için yeterince güvenilir olduğundan emin olun ve YZ sistemleri olasılıksal olduğundan her zaman doğru cevabı vermeyeceklerini daima göz önünde bulundurun.

  1. Botunuzun insanlara adil davrandığından emin olun.

YZ tabanlı sistemlerin mevcut toplumsal önyargıları sürdürme veya yeni önyargı oluşturma olasılığı, YZ’nin hızlı yaygınlaşması ile ilgili olarak belirlenen en önemli endişelerden biridir. Geliştirme ekipleri, botların tüm insanlara adil davranmasını sağlama konusuna dikkat etmelidir.

  1. Botunuzun kullanıcı gizliliğine saygı gösterdiğinden emin olun.

Gizlilikle ilgili hususlar botlar için özellikle önemlidir. İnsanlar, botlarla etkileşime geçtiğinde kendileri hakkında daha fazla bilgi paylaşabilirler. Ve elbette, botlar her şeyi hatırlayabilir. Tüm bunlar (ayrıca yasal gereksinimler), kullanıcı gizliliğine saygı gösterilmesi amacıyla botları bu temelde tasarlamanızı özellikle önemli hale getirir. Bu, botların nasıl çalıştığı ve botun kullanıcılara kişisel verileri üzerinde ne tür kontroller sunduğu da dahil olmak üzere botların veri toplama ve kullanımına yeterli şeffaflık kazandırmayı içerir.

  1. Botunuzun verileri güvenli bir şekilde işlediğinden emin olun.

Kullanıcılar, verilerinin güvenli bir şekilde işlenmesini bekleme hakkına sahiptir. Botunuzun işleyeceği veri türüne uygun en iyi güvenlik uygulamalarını izleyin.

  1. Botunuzun erişilebilir olduğundan emin olun.

Botlar ancak eğer insanlar için kapsayıcı ve erişilebilir olacak şekilde tasarlanmışlarsa herkese fayda sağlayabilir.

  1. Sorumluluğu kabul edin.

O gün gelecek olsa bile, şu an gerçekten bağımsız hareket edebilen botlardan çok uzaktayız. İnsanlar botların çalışmasından sorumludur.

 

Dokümanın orijinaline aşağıdaki bağlantıdan ulaşabilirsiniz:

https://www.microsoft.com/en-us/research/uploads/prod/2018/11/Bot_Guidelines_Nov_2018.pdf

AI Now 2018 Raporu

AI Now 2018 Raporu

 

Aralık 2018

 

TAVSİYELER

  1. Hükümetler, bu teknolojilerin bulundukları alanlar yoluyla gözetmek, denetlemek ve izlemek için sektöre özgü kurumların yetkilerini genişletmek suretiyle yapay zekayı düzenlemelidir. Yapay zeka (YZ) sistemlerinin uygulanması, yeterli yönetim, gözetim veya hesap verebilirlik rejimleri olmaksızın hızla genişlemektedir. Sağlık, eğitim, adalet ve refah gibi alanların hepsinin kendi tarihleri, düzenleyici çerçeveleri ve tehlikeleri bulunmaktadır. Bununla birlikte, ulusal bir yapay zeka güvenlik kuruluşu veya genel yapay zeka standartları ve sertifikasyon modeli, nüanslı düzenleme için gerekli olan sektörel uzmanlık gereksinimlerini karşılama konusunda çaba sarf edecektir. Sadece teknolojiye öncelik vermeyen, belirli bir alandaki uygulamasına da odaklanan sektöre özgü bir yaklaşıma ihtiyacımız var. Sektöre özgü yaklaşımların yararlı örnekleri arasında ABD Federal Havacılık İdaresi ve Ulusal Karayolu Trafik Güvenliği İdaresi bulunmaktadır.
  1. Yüz tanıma ve duygu tanıma, kamu yararını korumak için sıkı düzenlemeye ihtiyaç duymaktadır. Bu düzenleme, güçlü denetim, açık sınırlamalar ve kamusal şeffaflığı gerektiren ulusal yasaları içermelidir. Topluluklar, bu teknolojilerin uygulanmasını hem kamu hem de özel bağlamda reddetme hakkına sahip olmalıdır. Kullanımlarının kamuya açık bir şekilde bildirilmesi yeterli değildir ve baskıcı ve sürekli kitlesel gözetimin tehlikeleri göz önüne alındığında, herhangi bir onay için yüksek bir eşik olmalıdır. Duygu tanıma, özellikle dikkat etmeyi gerektirir. Duygu tanıma, yüz görüntülerine veya videolarına dayanan, kişilik, içsel duygular, zihinsel sağlık ve “çalışanların katılımı” gibi şeyleri saptadığını iddia eden yüz tanımanın bir alt sınıfıdır. Bu iddialar, sağlam bilimsel kanıtlarla desteklenmez ve sıklıkla, frenoloji ve fizyonominin yalanlarını hatırlatan etik olmayan ve sorumsuz yollarla uygulanmaktadır. Duygu tanımayla bağlantılı işe alım, sigortaya erişim, eğitim ve güvenliği sağlama, hem bireysel hem de toplumsal düzeyde riskleri derinden etkiler.
  1. YZ endüstrisi, yönetişim için acilen yeni yaklaşımlara ihtiyaç duymaktadır. Bu raporun gösterdiği gibi, çoğu teknoloji şirketindeki iç yönetim yapısı, YZ sistemleri için hesap verebilirliği sağlamada başarısız oluyor. Hükümet düzenlemesi önemli bir bileşen olmakla birlikte, YZ endüstrisindeki önde gelen şirketler de etik kurallarının ötesine geçen iç hesap verebilirlik yapılarına ihtiyaç duymaktadır.  Bu, yönetim kurullarında, dış etik danışma kurullarında ve bağımsız izleme ve şeffaflık çabalarının uygulanması konusunda aşağı tabakadaki çalışanların temsilciliğini içermelidir. Üçüncü taraf uzmanlar, kilit sistemler hakkında denetim ve yayın yapabilmeli ve şirketler, YZ altyapılarının nihai uygulama ve kullanımları dahil olmak üzere “birbirinin peşine sıra” olduğunun anlaşılmasını sağlamalıdır.
  1. YZ şirketleri, ticaret sektöründe hesap verme sorumluluğu altında duran ticari gizlilik ve diğer yasal iddialardan vazgeçmelidir. Yönetimde kullanılmak üzere YZ ve otomatik karar sistemleri oluşturan satıcılar ve geliştiriciler, yazılımlarının tam denetimini ve anlaşılmasını engelleyen ticari bir gizlilik veya diğer yasal iddialardan feragat etmeyi kabul etmelidir. Kurumsal gizlilik yasaları, sürecin önündeki engeldir: “kara kutu etkisi” sistemi öngörülmez ve anlaşılmaz hale getirerek önyargıları, çekişen kararları veya hataları düzeltmeyi zorlaştırır. Bu teknolojileri kamu sektöründe kullanılmak üzere temin eden herhangi bir kişi, satıcıların herhangi bir anlaşmaya girmeden önce bu iddialardan vazgeçmesini talep etmelidir.
  1. Teknoloji şirketleri, vicdani retçiler, çalışan organizasyonu ve etik ihbarcılar için koruma sağlamalıdır. Teknoloji çalışanları tarafından yapılan örgütlenme ve direniş, hesap verebilirlik ve etik karar verme için bir güç olarak ortaya çıkmıştır. Teknoloji şirketleri, çalışanların örgütlenme, ihbar etme ve çalıştıkları projeler hakkında etik seçimler yapma imkanlarını korumaları gerekmektedir. Bu açık politikalar, vicdani retçileri barındıran ve koruyan, işçilerin ne üzerinde çalıştığını bilme haklarını  sağlayan ve misilleme veya intikam olmaksızın böyle bir işten kaçınma imkanını içermelidir. Etik açıdan endişe uyandıran işçiler de, kamu yararı nezaretinde olduğu gibi korunmalıdır. Etik açıdan endişe uyandıran işçiler de, kamu yararı içinde ihbarcılarda olduğu gibi korunmalıdır.
  1. Tüketici koruma kurumları, YZ ürün ve hizmetleri için “gerçekteki reklamlar” ilkelerini uygulamalıdır. YZ ile ilgili aldatmaca sadece büyümekte ve bu, pazarlama vaatleri ile gerçek ürün performansı arasındaki uçuruma yol açmaktadır. Bu uçurum dolayısıyla, hem kişisel hem de ticari müşteriler için, genellikle ağır sonuçlarla birlikte artan riskler ortaya çıkmaktadır. Toplumları ciddi şekilde etkileme ya da sömürme potansiyeline sahip olan diğer ürün ve hizmetler gibi, YZ satıcıları, özellikle bunları destekleyen bilimsel kanıtların yetersiz olduğu ve uzun vadeli sonuçların bilinmediği durumlarda, söz verebilecekleri yüksek standartlarda tutulmalıdır.
  1. Teknoloji şirketleri “boru hattı modeli” nin ötesine geçmeli ve işyerlerinde dışlama ve ayrımcılık uygulamalarını ele almayı taahhüt etmelidir. Teknoloji şirketleri ve bir bütün olarak YZ konusunda, daha çeşitli çalışanları eğitmek ve işe almak isteyen “boru hattı modeli” ne odaklandı. Bu önemli olmakla birlikte, insanlar toplumsal cinsiyet, ırk, cinsellik veya engellilik temelinde insanları dışarıda bırakan, taciz eden veya sistematik olarak haksızlığa uğratan işyerlerinde işe alındığında neler olduğuna bakmaktadır. Şirketler, işyerlerindeki daha derin konuları ve çeşitli kültürler ile önyargı ve ayrımcılığı sürdüren araçlar üretebilen ürünler arasındaki ilişkiyi incelemelidirler. Odaktaki bu değişikliğin, işe alım ve istihdam ile ilgili şeffaflık önlemleri ile birlikte, nihai ücrete ve fırsat eşitsizliğine yönelik bir taahhüt de dahil olmak üzere, pratik eylemle birlikte sunulması gerekmektedir.
  1. YZ’deki adalet, hesap verebilirlik ve şeffaflık, “tam tedarik zinciri” nin ayrıntılı bir hesabını gerektirir. Anlamlı bir hesap verebilirlik için, bir YZ sisteminin ve ona bağlı olduğu tüm tedarik zincirinin bileşen parçalarını daha iyi anlamamız ve takip etmemiz gerekir: bu, eğitim verilerinin, test verilerinin, modellerin, uygulama programı arayüzlerinin (API’ların) kökenleri, kullanımı ve ürün yaşam döngüsü üzerindeki diğer altyapı bileşenleri için hesap verme anlamına gelir. Bu hesap vermeyi, YZ sistemlerinin “tam tedarik zinciri” olarak adlandırıyoruz ve bu, daha sorumlu bir denetim biçimi için şarttır. Tam tedarik zinciri ayrıca, YZ sistemlerinin gerçek çevresel ve işgücü maliyetlerini anlamayı da içerir. Bu, enerji kullanımını, içerik yönetimi ve eğitim verilerinin oluşturulması için gelişmekte olan ülkelerde emeğin kullanılmasını ve YZ sistemlerini geliştirmek ve sürdürmek için bilişim hamallarına güvenmeyi birleştirir.
  1. YZ hesap verebilirlik konularında dava takibi, işgücü organizasyonu ve toplum katılımı için daha fazla finansman ve desteğe ihtiyaç vardır. YZ sistemlerinden zarar görme riski en fazla olan kişiler, çoğunlukla sonuçlara en az itiraz edebilecek olanlardır. Yasal çözüm ve sivil katılımın sağlam mekanizmaları için daha fazla desteğe ihtiyacımız var. Bu, sosyal hizmetlerden kesilenleri, algoritmik karar verme, sivil toplum örgütleri ve iş kaybı ve sömürü riski taşıyan grupları destekleyen işgücü organizatörleri ve halkın katılımını sağlayan toplum temelli altyapılardan kaynaklanan kamu destekçilerini desteklemeyi içermektedir.
  1. Üniversite YZ programları, bilgisayar bilimleri ve mühendislik disiplinlerinin ötesine yayılmalıdır. YZ disiplinler arası bir alan olarak başladı, ancak yıllar boyunca teknik bir disiplin haline geldi. YZ sistemlerinin sosyal alanlara giderek artan bir şekilde uygulanmasıyla, disiplin yönelimini genişletmesi gerekmektedir. Bu, uzmanlık biçimlerinin sosyal ve hümanistik disiplinlerde merkezileştirilmesi anlamına gelir. Gerçek anlamda sosyal sonuçları ele almak isteyen çabalar, yalnızca öğretim üyeleri ve öğrencilerin sosyal dünyayı araştırmak için eğitilmediği bilgisayar bilimleri ve mühendislik bölümlerinde kalamaz. Yapay zeka araştırmalarının disiplinel yönelimini genişletmek, toplumsal bağlamda daha fazla dikkat çekilmesini ve bu sistemlerin insan topluluklarına uygulandığında potansiyel tehlikelere daha fazla odaklanılmasını sağlayacaktır.

 

Raporun tamamını aşağıdaki bağlantıda bulabilirsiniz:

https://ainowinstitute.org/AI_Now_2018_Report.pdf

 

Google’daki Yapay Zeka: İlkelerimiz

 

Google’daki Yapay Zeka: İlkelerimiz

Related image

Sundar Pichai

 

Sundar Pichai

CEO

7 Haziran 2018

 

 

 

Yapay zeka özünde, öğrenen ve adapte olan bir bilgisayar programıdır. Her problemi çözemez, ancak hayatlarımızı iyileştirme potansiyeli çok büyüktür. Biz Google’da yapay zekayı – spam gelmeyen ve kolay oluşturulan e-postalardan, doğal bir şekilde konuşabileceğiniz dijital asistanlara, hoşunuza gidebilecek fotoğrafların önünüze çıkmasına kadar- ürünlerimizi daha faydalı olması için kullanıyoruz.

Ürünlerimizin ötesinde, yapay zekayı insanların acil problemlerini çözülmesinde yardımcı olmak için kullanıyoruz. Bir çift lise öğrencisi, orman yangını riskini tahmin etmek için YZ destekli sensörler üretiyor. Çiftiler onu sürülerinin sağlığını izlemek için kullanıyorlar. Doktorlar, kanseri teşhis etmeye ve körlüğü önlemeye yardımcı olmak için YZ kullanmaya başlıyor. Bu belirgin faydalar, Google’ın YZ araştırma ve geliştirmeye büyük yatırımlar yapmasını ve YZ teknolojilerinin diğerleri tarafından, Google’ın araçları ve açık kaynak kodları vasıtasıyla yaygın şekilde kullanılabilmesini sağlamaktır.

Bu güçlü teknolojinin, kullanım konusunda eşit derecede güçlü sorular ortaya koyduğunu biliyoruz. YZ’nin nasıl geliştirildiği ve kullanıldığının yıllar boyunca toplum üzerinde önemli bir etkisi olacak. YZ’de bir lider olarak, bunu doğru yapmak için büyük bir sorumluluk hissediyoruz.  Bu sebeple bugün, ilerleyen çalışmalarımıza rehberlik etmesi için yedi ilkeyi ilan ediyoruz. Bunlar teorik kavramlar değildir; araştırma ve ürün geliştirmemize aktif olarak yön verecek ve iş kararlarımızı etkileyecek somut standartlardır.

Bu alanın dinamik ve gelişmekte olduğunu kabul ediyoruz ve çalışmalarımıza alçakgönüllülük, içsel ve dışsal bağlılık taahhüdü ile; ve zaman içinde öğrendiğimiz yaklaşımımızı adapte etme isteğimizle yaklaşacağız.

Yapay Zeka Uygulamaları için Hedefler

YZ uygulamalarını aşağıdaki hedefler doğrultusunda değerlendireceğiz. İnanıyoruz ki YZ:

  1. Sosyal açıdan faydalı olmalı.

Yeni teknolojilerin genişletilmiş erişimi, bir bütün olarak topluma giderek daha fazla dokunuyor. YZ’deki ilerlemeler, sağlık, güvenlik, enerji, ulaşım, üretim ve eğlence gibi çok çeşitli alanlarda dönüştürücü etkilere sahip olacak. YZ teknolojilerinin potansiyel gelişimini ve kullanımlarını göz önünde bulundurduğumuzdan, geniş bir yelpazede sosyal ve ekonomik faktörleri dikkate alacağız ve olası genel faydaların, öngörülebilir risk ve dezavantajları büyük ölçüde aştığına inandığımız yerde devam edeceğiz.

Ayrıca YZ içeriğin anlamını etraflıca anlama yeteneğimizi geliştirir. Faaliyet gösterdiğimiz ülkelerdeki kültürel, sosyal ve hukuki normlara saygı göstermeye devam ederken, YZ kullanarak yüksek kalitede ve doğru bilgileri hazırlamaya çalışacağız. Teknolojilerimizi ne zaman ticari olmayan bir şekilde kullanılabilir hale getireceğimizi dikkatlice değerlendirmeye devam edeceğiz.

  1. Haksız önyargı yaratmaktan ya da bunu güçlendirmekten kaçınmalı

YZ algoritmaları ve veri tabanı haksız önyargıyı yansıtabilir, güçlendirebilir ya da azaltabilir. Haklı önyargıları, haklı olmayan önyargılardan ayırt etmenin her zaman basit olmadığının; ve kültürler ve toplumlar arasında farklılık gösterdiğinin farkındayız. Özellikle insanlar üzerinde ırk, etnik köken, cinsiyet, milliyet, gelir, cinsel yönelim, yetenek ve siyasi veya dini inanç gibi hassas niteliklerle ilgili haksız etkilerden kaçınmaya çalışacağız.

  1. Güvenlik için inşa edilmeli ve test edilmeli

Zarar riskine yol açan istenmeyen sonuçları önlemek için güçlü güvenlik ve koruma uygulamalarını geliştirmeye ve uygulamaya devam edeceğiz. YZ sistemlerimizi uygun şekilde ihtiyatlı olmak için tasarlayacağız ve bunları YZ güvenlik araştırmasında en iyi uygulamalara göre geliştirmeye çalışacağız. Uygun durumlarda, YZ teknolojilerini kısıtlı ortamlarda test edeceğiz ve dağıtımdan sonra çalışmalarını izleyeceğiz.

  1. İnsanlara karşı sorumlu olmalı

Geri bildirim, ilgili açıklamalar ve itiraz için uygun fırsatlar sunan YZ sistemleri tasarlayacağız. Bizim YZ teknolojilerimiz uygun insan yönlendirmesine ve kontrolüne tabi olacaktır.

  1. Gizlilik tasarım ilkelerini kapsamalı

Gizlilik ilkelerimizi, YZ teknolojilerimizin geliştirilmesine ve kullanımına dahil edeceğiz. Bildirim ve onay için fırsat verip, gizlilik önlemleri ile yapıları teşvik edip, verilerin kullanımı üzerinde uygun şeffaflığı ve kontrolü sağlayacağız.

  1. Yüksek bilimsel başarı standartlarını desteklemeli

Teknolojik yenilik, bilimsel yönteme dayanmaktadır ve açık sorgulama, entelektüel titizlik, dürüstlük ve işbirliği için bir taahhüt kaynağıdır. YZ araçları biyoloji, kimya, tıp ve çevre bilimleri gibi kritik alanlarda yeni bilimsel araştırma ve bilgi alanlarını ortaya çıkarma potansiyeline sahiptir. YZ gelişimini ilerletmek için çalışırken, yüksek standartlarda bilimsel başarı arayışındayız.

Bilimsel olarak titiz ve çok disiplinli yaklaşımları kullanıp, bu alanda düşünceli(anlayışlı) liderliği teşvik etmek için bir dizi paydaşla birlikte çalışacağız. Ayrıca, eğitim materyallerini ve en iyi uygulamaları yayınlayarak YZ bilgisini sorumlu bir şekilde paylaşacağız ve daha fazla insanın yararlı YZ uygulamaları geliştirmesini sağlayacak araştırmalar yapacağız.

  1. Bu ilkelere uyan kullanımlar için geçerli kılınmalı

Birçok teknolojinin birden fazla kullanımı vardır. Potansiyel olarak zararlı veya taciz edici uygulamaları sınırlandırmak için çalışacağız. YZ teknolojilerini geliştirip uygularken, aşağıdaki faktörlerin ışığında olası kullanımları değerlendireceğiz:

  • Birincil amaç ve kullanım: Çözümün zararlı bir kullanımla ne kadar yakından ilişkili olduğu veya ona uyarlanabileceği de dahil olmak üzere, bir teknoloji ve uygulamanın birincil amacı ve olası kullanımı.
  • Mahiyet ve teklik: Benzersiz veya daha genel şekilde mevcut olan teknolojiyi sağlanması.
  • Ölçü: Bu teknolojinin kullanımının önemli bir etkisi olması.
  • Google’ın dahil olmasının mahiyeti: Genel amaçlı imkanlar sağlanması, imkanların müşterilere entegre edilebilmesi veya özel çözümler geliştirilmesi.

YZ Uygulamalarını İzlemeyeceğiz

Yukarıdaki amaçlara ek olarak, YZ’yi aşağıdaki uygulama alanlarında tasarlamayacağız veya kullanmayacağız:

 

  1. Genel bir zarara neden olan ya da neden olması muhtemel olan teknolojiler. Maddi bir zarar riski olduğunda, sadece faydaların risklerden önemli ölçüde ağır bastığına inandığımız ve uygun güvenlik kısıtlarını içeren noktaya ilerleyeceğiz.
  2. Temel amacı veya uygulaması, insanlara zarar vermek veya doğrudan zarar vermeyi amaçlayan silahlar veya diğer teknolojiler.
  3. Amacı, uluslararası hukukun ve insan haklarının yaygın olarak kabul edilen ilkelerine aykırı olan teknolojiler.

 

Silah kullanımında YZ geliştirmiyor olmamıza rağmen, çalışmalarımızı başka alanlardaki hükümetlerle ve orduyla sürdüreceğimizi açıkça belirtmek isteriz. Bunlar arasında siber güvenlik, eğitim, asker yetiştirme, gazilerin sağlık bakımı ve arama ve kurtarma yer alıyor. Bu işbirlikleri önemlidir ve bu kuruluşların kritik çalışmalarını artırma ;ve hizmet üyelerinin ve sivillerin güvende olmaları için aktif olarak daha fazla yol arayacağız.

Uzun vadede YZ

Bu, bizim yapay zekaya nasıl yaklaşmayı seçtiğimizin konusu olsa da, bu konuşmada birçok ses için yer var. YZ teknolojileri ilerledikçe, bu alanda düşünceli(anlayışlı) liderliği teşvik etmek ve bilimsel olarak titiz ve çok disiplinli yaklaşımları benimsemek için bir dizi paydaşla birlikte çalışacağız. Ayrıca YZ teknolojilerini ve uygulamalarını geliştirmek için öğrendiklerimizi paylaşmaya devam edeceğiz.

Bu prensiplerin şirketimiz ve gelecekteki YZ gelişimi için doğru bir temel olduğuna inanıyoruz. Bu yaklaşım, 2004 yılında asıl Kurucularımızın Mektubu’nda belirtilen değerler ile tutarlıdır. Kısa vadeli bir vazgeçme anlamına gelse bile, uzun vadeli bir bakış açısı alma niyetinizi açıkça belirledik. Bunu daha önce söylemiştik ve şimdi inanıyoruz.

 

Metnin orijinaline aşağıdan ulaşabilirsiniz:

https://blog.google/topics/ai/ai-principles/

 

Robotlar, Yapay Zeka ve Hukuksal Tartışmalar

Robotlar, Yapay Zeka ve Hukuksal Tartışmalar

Türkiye’de bilişim hukuku alanında yetkin isimlerden biri olan, Medipol Üniversitesi’nden Doç. Dr. Volkan Dülger ile robotlar, yapay zeka ve yaratabilecekleri muhtemel hukuksal sorunların çözüm yolları üzerine konuştuk.

 

Keyifli okumalar…

 

Çetin:Yapay zekâ teknolojisinin yaratabileceği mahremiyet ve gizlilik sorunları karşısında sizce ne gibi düzenlemelere gidilmeli?

Dülger: İnsanlık var olduğu tarihten bu yana ihtiyaçlarına cevap verecek ve hayatını kolaylaştırıp kendisine yardım edecek araçların yapımı için uğraşmıştır. Bu araçların yapımı için ise bilgi, yetenek ve deneyime gereksinim vardır. İşte bu noktada teknoloji dediğimiz kavram gündeme gelir. Kısaca insanların kendisine yardımcı olacak araç ve gereçleri yapmak, üretmek veya geliştirmek için gereksinim duyduğu ve bilimsel ilerlemeye bağlı olarak gelişen ve artan araçlara teknoloji denir. Teknoloji, yapılan araştırmalar, çalışmalar ve deneyler ile gün geçtikçe gelişmekte ve şaşırtıcı boyutlara ulaşmaktadır.

Bilimsel ilerlemeler ile teknolojik gelişmeler sayesinde bilişim ve iletişim dünyasında meydana gelen gelişmelerle hayatımız ciddi bir biçimde değişmiş ve kolaylaşmış durumda. Bilgisayar, telefon ve internetle dünyanın öbür ucuyla iletişim sağlanabilirken; ulaşım araçları sayesinde dünyanın dört bir yanı ulaşılabilir hale gelmiştir. Sağlık alanına baktığımızda gerçekleştirilen ameliyatlar, röntgen ve filmler, kan tahlilleri ve DNA araştırmaları gibi faaliyetler tamamen bilimsel ilerleme ve teknolojiyle bağlıdır. Böylece tanı, tedavi yöntemleri ve tedaviye ulaşma hızı dolayısıyla da insan ömrünün uzaması açısından teknolojinin büyük katkıları olduğunu söylemek mümkündür. Hukuk ve özellikle ceza hukuku alanında ise teknoloji kullanılmadan yargılama yapılması ve suçluların yakalanması neredeyse imkansız hale gelmiştir. Güvenlik kameraları, kan ve parmak izleri ve takip sistemleri gibi teknolojiler, ceza soruşturma ve kovuşturmalarında sıklıkla kullanılmaktadır.

Görüldüğü gibi iletişim, ulaşım, sağlık, hukuk ve daha birçok alanda teknoloji ve teknolojinin getirdikleri vazgeçilmez hale gelmiştir. Nitekim teknoloji ürünlerinin sağladığı kolaylıklarla  hayatımızın bir parçası haline geldiği açık bir gerçektir. Öyle ki artık teknolojinin sağladığı fayda ve kolaylıklar olmadan bir yaşam sürülmesi düşünülememektedir. Peki hayatımızı bu denli kolaylaştıran teknoloji gerçekten bu kadar masum mu, hiç mi zararı yok? Maalesef durum böyle değil. Teknolojinin getirdikleri kadar götürdükleri de mevcut ve hatta bazı kesimler tarafından götürdüklerinin daha fazla olduğu iddia edilmekte. Ben bu düşüncede olmasam da faydalarının yanında birçok zararının da olduğunu inkâr etmek mümkün değil.

Teknolojiyle beraber gelişen savaş araçları, hava ve çevre sorunları, yer altı ve yer üstü kaynaklarının tükenmesi ve teknolojik araçların yaydığı elektromanyetik dalgaların canlılar üzerindeki zararı, teknoloji ile hayatımıza giren zorlukların ilk akla gelenleridir. Somut ve maddi örneklerin yanı sıra esasen en büyük zarar, insanların sosyal hayatı üzerinde gerçekleşmektedir. İnsanların, teknolojinin sağladığı kolaylıklardan sonra tembelleştiği ve sanallaştığı gözlemlenmektedir. Böylece depresyon, stres ve uykusuzluk gibi birçok problemi de beraberinde getirmiştir. Sosyal medya araçları sayesinde kendini daha kolay, hızlı ve daha geniş kitlelere ifade edebilen ve düşüncelerini paylaşabilen insan; diğer yandan yüz yüze iletişime geçmeyen, sanal ve bağımlı bir varlığa dönüşmüştür. Hal böyle olunca hayatımıza teknoloji bağımlılığı adıyla yeni bir hastalık türü girmiş ve çağın hastalığı olarak da kabul edilmeye başlanmıştır. Teknoloji bağımlılığı ile mücadele amacıyla birçok kuruluş harekete geçmiş ve çalışmalara başlamıştır.

Teknolojinin fayda ve zararlarının birleştiği en önemli nokta ise bilgi alışverişinin gerçekleşmesi noktasındadır. Özellikle internet aracılığıyla olmak üzere, bilişim ve iletişim teknolojilerinin gelişmesiyle bilgi alışverişi çok kolay ve hızlı hale gelmiştir. Bugün saniyeler içerisinde çok büyük sayıda verilerin tutulması, işlenmesi ve aktarılması mümkündür. Bununla birlikte verilerden yola çıkılarak veri sahibine de kolaylıkla ulaşılabilmektedir. Bu durum sağladığı faydaların yanında bireylerin kendilerine ait olan bilgilerinin, bu bilgilerle hiçbir ilgisi ve menfaati olmayan üçüncü kişilerin eline geçmesi ve bu bilgilerin üçüncü kişiler tarafından hukuka uygun veya aykırı olarak kullanılması tehlikesini gündeme getirmiş ve bu konuda endişe edilmeye başlamıştır. Bu endişelerin çıkış noktası daha basit teknolojilere dayanmış olsa da büyümesi ve ciddi boyutlara ulaşması günümüz teknolojisiyle gerçekleşmiştir.

Bugün teknolojide ulaştığımız son noktanın ise bundan kısa bir süre önce hayal etmesi bile zor olan ve hayal edilse dahi gerçekleşmesine imkânsız gözüyle bakılan gelişmelerden oluştuğunu görüyoruz. Özellikle yapay zekâ alanında gelinen nokta hem heyecanlandırıcı hem de olası senaryolar karşısında düşündürücü niteliktedir. Zira yapay zekalı varlıkların birçok mesleğin yerine geçebileceğini, cerrahi operasyonlar yapabileceği, doksan yıl içinde kendilerinin dahi yapay zekâ araştırmaları yapabileceği ve hatta bu varlıkların yüz yıl sonra bizler gibi olabileceği konuşuluyor. Yapay zekadan beklenen öğrenme, öğrendiğini analiz etme ve analiz çıktısını yorumlayarak karar verme, hatta söz konusu olan bir yapay zekalı robotsa hareket etme aşamalarını gerçekleştirebilmesidir. Bu amaçlarla devam eden yapay zekâ çalışmaları ve bu çalışmaların mevcut ürünleri düşünüldüğünde söz konusu ihtimaller pek de imkânsız görünmemekte.

Yapay zekalı varlıkların öngörülen geleceğini insanlık için tıpkı teknolojideki gelişmeler gibi faydalı ve yardımcı olacağını savunanlar kadar; tam aksine insanlar için tehlikeli olarak değerlendiren kesimler de mevcut. Peki bu tehlikenin kaynağı nedir? İnsanlar gibi araştırma yapabilecek, insanların gerçekleştirdiği meslek faaliyetlerinde onlara yardımcı olabilecek ve insan hayatında kahve içeceği saati, ne zaman nereye gideceğini bile tahmin edebilmek gibi birçok kolaylık sağlayabilecek olan yapay zekalı varlıkların ne gibi bir riski olabilir? Aslında bu sorunun cevabı tam da kendisi. Saydıklarım her ne kadar ilk bakışta yapay zekâ teknolojisinin ne kadar harika olduğunu düşündürtse de esasen olası tehlikeleri de anlatmaktadır. Yapay zekalı varlık sizin kahve içeceğiniz saati nerden bilebilir? Kullanmanız gereken ilacı ve ilaç saatinizi hatırlatacak olması nasıl mümkün olabilir? Aileniz ve yakın çevrenizi nereden tanıyabilir? Bütün bu soruların tek cevabı var: Veri, özellikle de kişisel veri! Yapay zeka teknolojisi kendisine yüklenen veriler üzerinde zihinsel faaliyetler gerçekleştirir ve ortaya sonuçlar çıkarır. Dolayısıyla esas olarak verilerden yola çıkar, burada da karşımıza büyük veri (big data) kavramı karşımıza çıkar. Yapay zekanın gerçekleşmesi, yapay sinir ağlarının gelişmesine bu da çok sayıda verinin üretilmesi, depolanması, erişilebilmesi ve bunların işlenmesine bağlıdır.

Verileri kullanarak insan zekasını taklit eden faaliyetlerde bulunan yapay zekalar, birçok farklı açıdan bu faaliyetleri insan zekasından daha iyi gerçekleştirebilmektedir. Yapay zekanın; doğal zekâ yani insan zekası gibi belli bir ömrü ve kapasitesinin olmaması, yapay zeka algoritmalarıyla donatılmış bir makine içindeki verilerin kolaylıkla kopyalanabilmesi ve belli bir sistem üzerinde kurulmuş olması itibariyle her durumda aynı ve objektif tepkiler verebilmesi kendisine yüklenen verilerin analizini yapma sürecinde insan zekasından daha üstün olduğu yönlerdir.

Bireylere ait verileri bu denli etkin ve ölçüsüz bir biçimde kullanabileceği öngörülen yapay zekaların, bu veriler üzerinde gerçekleştirecekleri faaliyetler sonucu hukuka aykırı kullanımlara ve insan hakları ihlallerine neden olabileceklerinden endişe edilmektedir. Zira halihazırda yapay zekâ algoritmalarının kullanıldığı alanlarda insan haklarının yoğun bir biçimde ihlal edilmesi ve tehlike altında olması bu endişeleri kuvvetlendirmektedir. Endişelerin esas yaşandığı ve toplandığı nokta ise bireylerin özel hayatın gizliliği ve özel hayata saygı hakkı kapsamında mahremiyet ve giz alanına ilişkindir.

Mahremiyet hakkı 1970 tarihli “Kitlesel İletişim Araçları ve İnsan Hakları Bildirisi” ile bir kişinin hayatını minimum müdahaleyle yaşama hakkı olarak tanımlanmıştır. Kişinin özel, fiziksel ve ruhsal bütünlüğü, onur ve itibarı ile aile hayatı bu kapsamdadır. Avrupa İnsan Hakları Sözleşmesi’nin özel yaşam ve aile hayatı hakkı başlıklı 8. maddesi ile de mahremiyet hakkının da korunduğu AİHM içtihatlarında açıkça belirtilmektedir.

Buna göre kişi kendi bütünlüğü ile özel ve aile yaşamı alanlarına en az müdahale ile hayatını sürdürebilmelidir. Oysa günümüz teknolojisi ve yapay zekalı varlıkların geleceği bu hak üzerinde maksimum düzeyde müdahale edebilecek nitelikte üretilmekte ve dizayn edilmektedir. Bunun nedeni söz konusu teknolojileri her kullandığımızda ardımızda dijital izler bırakmamızdır. Dijital alanda ve buna bağlı olarak internette attığımız her adım; hangi web sitelerine girip ne araştırdığımız, ziyaret ettiğimiz alışveriş sitelerinde hangi ürünlere baktığımız hatta nerelerde yemek yediğimiz ve kimlerle olduğumuz gibi en mahrem alanımıza ilişkin bilgiler sürekli kaydedilmektedir. İşin ilginç tarafı kimsenin bilmesini ve ulaşmasını istemeyeceğimiz bu bilgileri çoğu zaman kendi ellerimizle ortalık yere bırakmamızdır.

Günümüzde büyük ölçüde teknolojinin gelişmesiyle ortaya çıkan tehlikeler dolayısıyla kişisel verilerin korunmasına ilişkin sorunlar daha iyi anlaşılmış ve özellikle 1980’li tarihlerden itibaren Avrupa Birliği’nin bu yöndeki çalışmaları neticesinde kişisel verilerin korunması hakkı oluşmuştur. Ülkemizde de kişisel veriler 7 Nisan 2016 tarihinde yürürlüğe girmiş olan 6698 sayılı Kanun ve ilgili Yönetmeliklerle korunmaktadır. Ayrıca kişisel verilerin hukuka aykırı olarak kaydedilmesi ve yayılması Türk Ceza Kanunu ile de zaten suç olarak düzenlenmiştir.

Bununla beraber teknolojinin gelişmesi ve yapay zekalı varlıkların iyiden iyiye hayatımıza girmesi ile bu korumaların yetersiz kalacağında şüphe yoktur. Ki ben yapay zekalar tarafından kişisel verilerimizin hukuka aykırı bir biçimde kullanılması ile yakın bir gelecekte karşı karşıya kalacağımızı düşünüyorum. Gelinen nokta düşünüldüğünde yukarıda detaylı bir biçimde bahsettiğim olası tehlikelerin çok da uzak olmadığını öngörüyorum. Bu nedenle teknoloji ve yapay zekalar konusunda hukuk düzleminde de çalışmalara başlanmalı ve düzenleme yapma yoluna gidilmelidir.

Bu kapsamda ilk olarak hukuki statü tartışması çözümlenmelidir. Ardından günümüz dünyasında kişisel verilerin kullanımı olmadan hayatın devam edilmesinin mümkün olmadığından artık şüphe edilmediğinden yapay zekalı varlıklar ile beraber bu zekaların da kişisel veriye ihtiyaç duyacağı kesindir. Öyleyse yapay zekalar tarafından hangi hallerde kişisel veri kaydedileceği, işleneceği ve/veya aktarılabileceği hukuki düzenlemelerle belirlenmelidir. Sözgelimi bir yapay zekalı varlığın elinde bulundurduğu kişisel veriyi hangi şartlar altında başka bir yapay zekalı varlığa aktarabileceği öngörülebilir olmalıdır. Bundan sonra bu varlıkların mahremiyet ve özel hayata saygı hakkı başta olmak üzere temel insan haklarını ihlal etmeleri halinde hukuki ve cezai sorumlulukları düzenlenmelidir.

Çetin:Yapay zekâlı robotun ölümlü kazaya sebep olduğu bir senaryoda, hangi şartlarda robotun cezai sorumluluğundan bahsedebiliriz?

Dülger: İlk olarak yapay zekalı varlıkların hukuki statüsü ile hukuki ve cezai sorumluluğunu belirleyen yasal düzenlemeler olmadığını ancak teknolojinin gelişmesiyle düzenleme yapılması ihtiyacının gündeme geleceğini belirtmeliyim. Bunun nedeni hukuk düzenimizde Roma Hukuku’nda beri süregelen kişi ve eşya ayrımına yer verilmiş olmasıdır. Oysa yapay zekalı varlıkların insanın tabi olduğu düzenlemelere konu olmasının mümkün olmadığı gibi; eşya tanımı kapsamında değerlendirilebilmesi de imkansızdır. Yapay zekalı robotların basit bir eşya tanımının çok ötesinde olduğundan şüphe yoktur. Bu nedenle artık geleneksel hukuk anlayışının sınırları aşılarak yapay zekalı varlıkların hak ve yükümlülüklerini belirleyen düzenlemeler için çalışmalara başlanmalıdır. Ancak henüz mevcut bir düzenleme bulunmadığından bu noktada yalnızca olması gerekeni konuşabiliriz.

Yapay zekalı robotların cezai sorumluluğunun olup olamayacağı; olacaksa da bunun nasıl belirleneceği sorularının tespiti için öncelikle otonom-yarı otonom araçlar ile gerçek anlamda yapay zekalı varlıklar ayrımına dikkat çekmek gerekir. Otonom-yarı otonom araçlar bakımından bu problemi çözmek basittir. Bu araçlar bilinç sahibi olmadığı ve gerçek kişiler tarafından yönetildiği için bu araçların sebep olduğu zararlardan bunları yöneten ya da duruma göre üreten gerçek kişiler sorumlu olacaktır. Çünkü bu araçlar gerçek kişilerin verdiği komutlara göre hareket eder ve dolayısıyla bu araçların hukuki veya cezai sorumluluğundan bahsedilemez.

Sorumluluğun tespit edilmesinde asıl problem gerçek anlamda yapay zekalı varlıklar açısından ne olacağıdır. Son kararı kendisi verebilecek yapay zekalı bir robotun araba sürücü olması ve arabayı çarpmamak adına başka birine çarpması halinde kasten ya da taksirle öldürme suçunun faili kim olacaktır? Başka bir ihtimalde, cerrahi operasyon yapabilen bir robot ihmali neticesinde hastanın ölümüne sebep verirse sorumlu kim olacaktır? Yapay zekalı robotun kendisi mi, eğer bir sahibinin olduğu kabul edilirse sahibi mi, yoksa robotun üreticisi mi?

Yapay zekalı robotun sahibi olduğu kabul edilirse robotun eşya statüsünde değerlendirilmesi gerekir. Oysa bu yapay zekaların bir yöneticisi ve komut vereni yoktur. Dolayısıyla kendi kararlarını kendi verebilmektedir. Dolayısıyla bir sahibinin olduğundan bahsedilemeyecektir. Bilinçli hareketleri ile gerçekleştirdiği davranışları sonucu doğan zararlardan üreticinin de sorumluluğuna gidilmesi mümkün olmamalıdır. Hiçbir kusuru olmayan üreticinin suçun faili olarak kabul edilmesi suçun şahsiliği prensibine aykırıdır. Öyleyse kendi iradesi ile bilinçli olarak hareket eden ve bu hareketi sonucunda tipik bir suçun meydana gelmesine neden olan yapay zekalı robotun söz konusu suçun faili olarak kabul edilmesi gerekir. Ancak mevcut ceza hukuku sistemimizde bir suçun faili ancak gerçek kişiler olabilir.

Görüldüğü gibi sorumluluğun tespitinde farklı ihtimalleri değerlendirdiğimizde halihazırda bulunan yasal düzenlemeler hiçbirine cevap verememekte ve bir noktada tıkanmaktadır. Bu nedenle kişi ve eşya ayrımının yanına yapay zekalı robotların da hukuk düzeninde tanımlaması yapılmalı ve hukuki statüsü belirlenmelidir. Burada dikkat edilmesi gereken nokta genel bir tanımdan ziyade bunların otonom-yarı otonom ve gerçek yapay zekâlı varlıklar gibi derecelendirilerek ayrılması gerektiğidir. Zira yapay bir bilinç ve kendi kendine karar verebilme kavramının derecesi hepsinde aynı değildir. Dolayısıyla sorumluluğun boyutu da farklılık gösterebilecektir.

Bu bilgiler ışığında yapay zekalı robotun ölümlü bir kazaya sebep olmuş olması ihtimalinde; sorumluluk, şu aşamalar esas alınarak belirlenmelidir:

  • İlk olarak kazaya sebep olan robotun Anayasa ve Medeni Kanun ile belirlenmiş olan tanımı ve hukuki statüsü tespit edilmelidir. Kaza, verilen bir komut sonucunda mı gerçekleşmiş yoksa robotun kendi bilincinden ve iradesinden bahsedilebiliyor mu? En uç ihtimalde biyolojik insan faktörleri mevcut mu? Bu ihtimaller değerlendirilmelidir.
  • Kazanın yapay zekalı varlığın bilinçli hareketleri neticesinde gerçekleştiği sonucuna varılırsa suçun unsurlarının oluşup oluşmadığına bakılmalıdır.
  • Son olarak somut olayda gerçekleşen suça, yapay zekalı robotun sorumluluğunun öngörüldüğü hukuk prensiplerince belirlenmiş olan ceza yaptırımı uygulanmalıdır.

Burada tartışılması gereken bir diğer problem de insanlar için belirlenmiş olan ceza yaptırımlarının robotlar üzerinde ne kadar etkili olacağıdır. Ceza hukuku yaptırımlarının esas çıkış noktası suçun işlenmesi aşamasından önce caydırıcı etkisidir. Hapis cezasına hükmedileceğini düşünen insan ailesinden ve sevdiklerinden ayrı kalacağını düşünerek cayabilecekken; yapay zekalı robot için bu durumun caydırıcı bir etkisi olabilir mi? Yoksa daha ilerde tıpkı insan gibi duygulara sahip olan robotlar var olacak mı?

Suçun işlenmesi aşamasından sonra ceza hukukunun amacı suçluyu ıslah etmeye yöneliktir. Hapis cezasına hükmedilen suçlunun, bu süre içerisinde işlediği suçtan pişman olup bir daha suç işlememesi gerektiğini kavrayabilmesi amacı söz konusudur. Yapay zekalı robotun pişmanlığından ve ıslahından söz edilebilecek mi?

Ceza ile birlikte veya cezadan ayrı olarak bir güvenlik tedbirine hükmedildiğinde bunun robot için anlamı ve gerekliliği nedir? Bir yazılım güncellemesi ile her sorun çözülebilecek iken, güvenlik tedbiri olarak yapay zekalı robotun bir kenarda çürümeye bırakılması ne kadar gerçekçi ve mantıklıdır?

Görüldüğü üzere yapay zekalı varlıkların hukuki statüsü ile hukuki ve cezai sorumluluğunun yasalarla öngörülmesi gerektiği kadar; bunun nasıl yapılacağı da büyük bir problem teşkil etmektedir. Düzenlenecek olan yasaların yapay zekalı varlıkların doğası ve özü dikkate alınarak onların ihtiyaçlarına cevap verebilecek nitelikte olması gerekir.

Çetin:Sıradan nesnelere zarar vermekle, insansı özellikleri olsun veya olmasın bir yapay zekâlı robota zarar vermek açısından cezai anlamda fark oluşur mu?

Dülger: İlk olarak soruyu sıradan nesneler ifadesi için eşya kavramını esas alarak cevaplandıracağım. Eşya olarak nitelendirilebilecek nesnelere zarar verildiğinde bu zarar neticesinde Türk Ceza Kanunu’nda düzenlenmiş olan “mala zarar verme” suçu oluşur. Bununla beraber eşya kapsamında değerlendirilebilecek yapay zekalı bir robotun söz konusu olması ihtimalinde bu hallerin de yapay zekalı varlıkların kendilerine özgü düzenlenmiş olan hükümleriyle çözümlenmesi gerekir. Ancak mala zarar verme suçuna benzer bir suç biçiminde düzenlenmesi gerektiğini söylemek mümkündür.

Öte yandan insansı özellikte olmayan ama kişi için bir eşya kavramından çok daha fazlasını ifade eden yapay zekalı varlıklar söz konusu olabilir. Uzaktan haberleşme özelliğine sahip, sizi istediğiniz yerden alacak ve trafiksiz olan en rahat yolu seçecek, sizin sevdiğiniz kahveyi bilip gelmeden onu da yol üstündeki bir kafeden alabilen, dolayısıyla kişisel tercihlerinizi kodlayabileceğiniz yapay zekâya sahip bir aracı sadece eşya olarak nitelemek ne kadar doğru? Çünkü bu durumda kişinin yalnızca bir arabasına zarar vermiş olmazsınız ve kişinin üzerinde arabasına zarar vermiş olduğunuz ihtimaline göre çok daha büyük bir zarar meydana getirmiş olursunuz.

İnsansı özelliklere sahip bir robottan ise insan gibi algılayabilen, öğrenen, kendi kendine karar verebilen ve bilinçli bir şekilde hareket eden yapay zekalı varlık anlaşılmalıdır. Burada mağdur doğrudan varlığın kendisi olabilecek mi? Fail, mala mı yoksa kişiye mi zarar vermekten cezalandırılacak? Bilinci ve muhakeme yeteneği olan bir robota zarar verilmesi halinde doğrudan suçtan zarar görenin robotun kendisi varsayılabiliyorsa; Türk Ceza Kanunu’nda öngörülmüş olan “yaralama” suçuna benzer bir suçun oluşacağını söylemek gerekir. Failin de insansı özelliklere sahip yapay zekalı bir varlığın öngörülmüş olan hukuki statüsüne göre cezalandırılması gerekir.

Söz konusu ihtimallerden üç farklı yapay zekalı varlık tipi anlaşılmaktadır; eşya gibi nitelendirilebilen, insansı özelliklere sahip olmayıp basit bir eşyadan ötesini ifade eden ve insansı özelliklere sahip olan robot. Teknolojinin ve yapay zekanın gelişmesiyle bu tiplerin artacağı kuşkusuzdur. Soruda ise insansı özelliğe sahip olsun veya olmasın ifadesiyle ayrım yapılmaksızın bütün yapay zekâlı robotlar aynı çatı altında değerlendirilmiştir. Oysa böyle bir düzenleme mevcut düzenden bir adım ötesine geçmekten fazlasını vermez. Kaldı ki zaten düzenlemelerin esas noktasını, yapay zekalı varlığın insansı özelliğe sahip olup olmaması oluşturmalıdır. Asıl problem ve tıkanma bu noktada yaşanmaktadır. Dolayısıyla yapay zekalı varlıklar ile ilgili oluşturulacak prensip ve yasal düzenlemelerin genel bir başlık altında toplanmaktan ziyade; geniş bir perspektifle kapsamlı nitelikte olması gerekir.

Çetin:Ütopik bir soru olarak, gelecekte robotların kendi aralarında geçerli olacak bir cezai düzenlemeden bahsedilebilir mi?

Dülger: Yukarıda belirttiğim nedenlerden ötürü mevcut hukuk düzeni robotların kendi aralarında gerçekleşebilecek herhangi bir uyuşmazlığa da cevap vermemektedir. Yapay zekalı robotun bir diğer robotu yaralaması veya başka bir robotun mala zarar vermesi gibi bir senaryo karşısında halihazırda bulunan düzenlemelerle cevap verebilmek mümkün değildir. Bu nedenle yapay zekalı robotların da hukuk süjesi olarak tanımlanıp kendi aralarında yaşanacak uyuşmazlıkların geleceği ve nasıl çözüleceği konusunun belirlenmesi gerekir.

Bununla beraber sadece yapay zekâlar arasında, salt sınıflandırılan yapay zekâların birbirlerine karşı hak ve yükümlülüklerinin düzenlendiği bir sistemin öngörülmesini doğru bulmuyorum. Zira böyle bir yaklaşım ve varsayım suç teorisine aykırı bir durum teşkil edecektir ve ikili bir hukuk düzeni ortaya çıkacaktır. Bunun yerine yapay zekalı varlıklar tanımlandıktan ve hukuki statüsü belirlendikten sonra bu varlıkların tabi olacağı genel hukuk prensiplerine uygun cezai düzenlemelere gidilmesi isabetli olacaktır.

Çetin: Siber güvenlik konusunda, sizce yapay zekâ bir tehlike mi, yoksa avantaj mı?

Dülger: Öncelikle yukarıda da detaylı bir biçimde açıkladığım üzere genel olarak teknoloji ve teknoloji ürünlerinin hayatımızı kolaylaştırmak amacını güttüğünü ancak hayatımızı pek çok farklı açıdan kolaylaştırırken; birçok tehlikeyi de beraberinde getirdiğini kabul etmek gerekir. Yapay zekalı varlıklar açısından da aynı durum söz konusudur. Gerçekleştirdiğimiz mesleki faaliyetlerimizde bize yardımcı olarak işimizi kolaylaştıracak yapay zekalı varlık; bir sonraki adımda mesleki faaliyetin gerektirdiği bütün nitelikleri barındırıp gerçekleştirebildiği zaman işimizi elimizden alabilecek olması itibariyle, geleceğimiz için büyük bir tehlike de barındırmaktadır. Yıllar öncesinde günler ve saatlerimizi harcayan işlemleri şu anda saniyeler içerisinde yapmamızı sağlayan yapay zekâ algoritmaları, bugün, çok kısa süre içerisinde çok büyük boyutlarda kişisel verilerimizi de kaydederek olası insan hakları ihlallerine konu olabilmektedir. Bilişim sektörünün her alanında kullanılan ve bu sektörün gelişmesine katkı sağlayan yapay zekâ teknolojisi diğer taraftan siber saldırı aracı olarak kullanılabilecektir.

Dolayısıyla her açıdan yapay zekalı varlıkların çok önemli faydalarının yanında birtakım tehlikeler barındırdığını da görüyoruz. Ancak bu tehlikeleri esas alarak teknolojiye sırtımızı dönmek çok büyük bir hata olacaktır. Teknolojiye karşı olmak yerine onu takip edebilmek ve bunu fırsata dönüştürebilmek gerekir. Kaldı ki günümüzde teknolojiyi takip etmek bir zorunluluk haline gelmiştir. Teknolojiyi kullanmayan ve teknolojinin nimetlerinden faydalanmayan ülke ve toplumların gelişebilmesi ve yeni dünyaya ayak uydurabilmesi mümkün değildir. Buna en güzel örnek 18. yüzyılın sonlarında Avrupa’da sanayi alanında buhar gücünü kullanma ve makineleşmeyle gerçekleşen teknolojiyi takip edemeyen ülkelerin hala üçüncü dünya ülkesi olmaktan kurtulamamasıdır.

Açıkladığım nedenlerden ötürü teknoloji her ne kadar içerisinde birçok tehlikeyi barındırsa da; korkup kaçılacak bir durum değil takip edilmesi gereken bir zorunluluktur. Teknolojiden en yüksek düzeyde faydalanabilmek için de söz konusu tehlikelerin önceden mümkün olduğunca öngörülerek devletin pozitif yükümlülüğü altında önlenmesi ve bireylerin haklarının korunması gerekir. Teknoloji olmadan günlük hayat dahil olmak üzere spesifik hiçbir alanın devamının ve işleyişinin mümkün olmadığı günümüzde, barındırdığı risk faktörleri nedeniyle teknolojiden kaçmak gerçekçi bir yaklaşım olmadığı gibi akıntıyı tersine çevirmekle de eş anlamlıdır.

Çetin:Türk hukuk sisteminde bu teknoloji bakımından birincil düzenleme ne olmalı?

Dülger: Yapay zekalı varlıkların yasal düzlemde tanımlanması ile hak ve yükümlülüklerinin belirlenmesi, üstelik bu düzenlemelerin birbirinden farklı türlerinin dikkate alınarak dereceli ve kapsamlı bir nitelikte olması gerektiğine yukarıda değindim. Bu düzenlemelerin hangi hukuk prensibi ile nasıl olması gerektiği yönündeki kanaatim öncelik sıralamasına göre aşağıdaki gibidir:

  • İlk olarak konunun Anayasa hukuku bağlamında ele alınması gerekir. Burada yapay zekalı varlıkların hukuki statüsü tanımlanmalı, temel hak ve özgürlükleri açıkça belirlenmelidir.
  • Ardından hukukun temeli olan Medeni Hukuk devreye girmelidir. Kişiler hukuku benzeri “yapay zekalı varlıklar hukuku” benzeri bir başlık öngörülmeli ve bu başlık altında yapay zekalı varlıkların varlığının başlangıcı ve sonu, aile hukuku, miras hukuku ve eşya hukuku ile ilgili hükümler düzenlenmelidir.
  • Bu sırayı ceza hukukunun takip etmesi gerektiği düşüncesindeyim. Yapay zekalı varlıkların dahil olduğu bir ceza hukuku uyuşmazlığında ne yapılması gerektiği ve sorumluluğunun nasıl ve neye göre tespit edileceği açıklığa kavuşturulmalıdır.
  • Son olarak yapay zekalı varlıkların sosyal, ekonomik ve kültürel ilişki ve faaliyetleri söz konusu olacağından ticaret hukuku, iş hukuku, borçlar hukuku gibi farklı hukuk disiplinlerinde de düzenleme yapılmalıdır. Hatta vatandaşlık alan yapay zekalı robotlar düşünüldüğünde milletlerarası hukukun bile devreye girmesi gerektiğini söylemek mümkündür.

 

Değerli Volkan Dülger‘e saygı ve sevgilerle…

Robotlar ve Mahremiyet

Robotlar ve Mahremiyet

 

İlgili resim

 

 

Ryan Calo

Washington Üniversitesi

2 Nisan 2010

 

 

 

Özet

“Robotların mahremiyetle ilişkisinin niçin arttığını hayal etmek çok da zor değil. Pratik açıklaması olarak, robotlar etrafındaki dünyayı algılama, işleme ve kaydetme yeteneği ile donatılmıştır. Robotlar insanların gidemediği yerlere gidip, göremediği şeyleri görebilir. Robotlar, ilk ve öncelikli olarak insan aletleridir. Ve endüstriyel üretimden sonra, o aleti koyduğumuz yer, gözetleme olmuştur.

Ancak gözlemleme gücünün artırılması, robotların önümüzdeki on yıl içinde mahremiyeti etkileyebilecek yollardan sadece biridir. Bu parça, okuyuculara çeşitli konuları sunmayı amaçlayarak, robotların mahremiyet üzerindeki etkilerini üç kategoriye ayırıyor: doğrudan gözetleme, artan erişim ve sosyal anlam. Bu parça mümkünse, robotların mahremiyet üzerindeki potansiyel etkisini azaltacak veya çözüm üretecek yollarına işaret ediyor, ancak bazen mahremiyet yasasının mevcut durumu altında telafinin zor olacağını kabul ediyor.”

 

Makaleye aşağıdaki bağlantıdan ulaşabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1599189