Botlar, Fıstıklar ve Ticaretin Kaliforniyalılaşması

 

Botlar, Fıstıklar ve Ticaretin Kaliforniyalılaşması

 

 

Ian R. Kerr

Ottawa Üniversitesi

 

 

 

 

Özet

“Bu makalede, avatarları ve diğer elektronik varlıkların arkadaşlık yanılsamasıyla tüketicilerle ilişkiler kurmak için kullanılmasına yönelik otomatik elektronik ticaretin son eğilimlerini inceliyor. Yazar, ihmal edilen bu konu hakkında daha fazla araştırma yapılması ve yazı kaleme alınması gerektiğini ayrıca tüketicilerin günlük ilgi alanlarının web’deki geniş çaplı botlar ve fıstıklar tarafından istismar edilmemesini sağlamak için gizlilik ve tüketicinin korunmasına yönelik yeni yaklaşımların gerektiğini savunmaktadır.Yazar, analizine otomasyon bağlamında uygulanan şekliyle, sözleşme hukuku ile başlıyor.Sözleşmesel temeller atıldıktan sonra, odak noktası elektronik ticareti otomatikleştiren teknolojilere yöneliyor.Burada temel amacı, insan-bilgisayar etkileşiminin (İBE) yapısını yapay zeka (YZ) alanındaki kavramsal kökenlerine geri götürmektir.Elektronik ticareti otomatikleştirmek ve hareketlendirmek için kullanılan yapay zeka tekniklerini inceleyerek, yazar, tüketicileri kandırmak için kullanılan aldatmacaların bir kısmını, ticaretin Kaliforniyalaşması olarak adlandırılan rahatsız edici bir eğilim olarak ortaya koyuyor.Çevrimiçi malların veya hizmetlerin satıcıları, bir sözleşmenin müzakere edilmesi ve oluşturulması sırasında ana bilgi kaynağı olarak avatarları, alışveriş botlarını, vRep’leri veya dijital arkadaşları kullanır.Bu elektronik varlıklar, arkadaşlık yanılsaması yaratmak için samimiyeti ve arkadaşlığı simüle etmede kullanılır. Bu yanılsamalar tüketicileri yanlış yönlendirmek için kullanılabilir; bunun net etkisi, tüketicilerin bilinçli seçimler yapma yeteneğinin azaltması ve Veri Koruma ve Gizlilik Kanunundaki rıza ilkesinin baltalanmasıdır. Yazar, kanun yapıcıların, günümüzün tipik elektronik ticaret mevzuatında yer alan ve çoğunlukla şekil ve oluşum meseleleriyle sınırlı olanlara nazaran daha sağlam kanunlar çıkartarak karşılık vermeleri gerekip gerekmediğini sorguluyor. Yazar, yakın geleceğimizin yarı aydınlık bölgesinde gizlenen önemli bir dizi endişeyi önceden bildirip, şu anda bazı kişilerin -zeki makinelerden değil ama onları kullanan kişilerin tutumları karşısında- yasal korumaya ihtiyaç duyduğunu göstererek sonuçlandırıyor.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=705002.

 

Bir Robotu Kandırmak Hacklemek midir?

 

Bir Robotu Kandırmak Hacklemek midir?

 

Ryan Calo

Ivan Evtimov

Earlence Fernandes

Tadayoshi Kohno

David O’Hair

Washington Üniversitesi

 

Özet

“”Hackleme” terimi bilgisayar sistemine zorla girme anlamına geliyor. Bir dizi yerel, ulusal ve uluslararası düzenleme, bilgisayar korsanlarının bilgi çalmak veya operasyonları aksatmak için bilgisayar sistemlerine girmelerinden sorumlu tutulmalarını amaçlıyor. Diğer yasalar ve standartlar, özel şirketlerin saldırılara karşı bilgisayarları güvenli hale getirmeleri için en iyi uygulamaları kullanmayı teşvik ediyor.

Bilgisayarlara girmeyi değil ama onları kontrol eden makine öğrenmesi modellerinin manipüle edilmesini amaçlayan yeni bir teknik, korsanlığın niteliğini yeniden değerlendirmek için yasaları ve yasal kurumları zorlayabilir. Yazarlardan üçü, örneğin, bir sürücüsüz arabanın dur işaretini hız sınırı olarak algılamasını sağlamak için, bir sistem bilgisi kullanmanın mümkün olduğunu gösterdi. Diğer teknikler, makine öğrenme sistemlerinde gizli kör noktalar oluşturuyor veya öğrenme şekillerine giren özel verileri yeniden yapılandırmaya çalışıyor.

Yapay zekânın (YZ) ortaya çıkışındaki rönesans, savunmasızlığın paralel bir keşfi ile birleştiğinde, bir bilgisayar sistemini tehlikeye atmada “hacklemek” anlamına gelen şeyin yeniden gözden geçirilmesini gerektiriyor. Garantiye almak önemlidir. Yasal ve toplumsal çerçeveler düzenlenmedikçe, hukuk ve uygulama arasındaki yanlış hizalanmanın sonuçları, suçun unsurlarının yetersiz kalması, eksik ya da çarpık güvenlik önlemleri ve kritik güvenlik araştırmalarının soğutulması ihtimalini içerir. Bu sonuncusu, araştırmacıların önyargılarının, güvenlik kısıtlamalarının ve yapay zekâ bütünleşmesindeki hatalardan doğan fırsatların oynayabileceği önemli rolün ışığında özellikle tehlikelidir.

Bu makalenin yazarları, makine öğrenimi, bilgisayar güvenliği ve hukuk alanındaki uzmanların disiplinler arası ekibini temsil etmektedir. Amacımız, karşıt makine öğrenimi (ML) yoluyla hack yapısının niteliğinin ve siber güvenlik alanının değiştirilmesi için akademinin içinde ve ötesinde hukuk ve politika topluluğu oluşturmaktır. 1986 tarihli Bilgisayar Dolandırıcılığı ve Suistimal Yasası’nı -paradigmatik federal anti-hacking yasası- örnek olay incelemesi olarak kullanarak, hukuk ve teknik uygulama arasındaki kopukluğu kanıtlamak istiyoruz. Hacklemenin kandırma içerdiği ihtimalinin belirsizliğini göstermede ne pahasına olursa olsun başarısız olduğumuzu açıklamayı umuyoruz. “

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3150530

 

Yapay Zeka ve ‘İyi Toplum’: ABD, AB ve İngiltere Yaklaşımı

 

Yapay Zeka ve ‘İyi Toplum’:

ABD, AB ve İngiltere Yaklaşımı

 

 

Corinne Cath,

Sandra Wachter,

Brent Mittelstadt,

Mariarosaria Taddeo ve

Luciano Floridi

 

Oxford Üniversitesi

 

 

 

Özet

 

“Ekim 2016’da Beyaz Saray, Avrupa Parlamentosu ve İngiltere Avam Kamarası, her biri, yaygınlaşan yapay zeka kullanımına toplumlarını nasıl hazırlayacakları konusundaki görüşlerini içeren raporlarını yayınlamıştı. Bu makalede, “iyi bir yapay zeka toplumu” nun geliştirilmesine elverişli politikaların tasarımını kolaylaştırmak için bu üç raporun karşılaştırmalı bir değerlendirmesini sunuyoruz. Bunun için, her bir raporun üzerinde durduğu üç konuyu inceliyoruz:  

(a”İyi bir yapay zeka toplumu”nun geliştirilmesi; 

(b) Bu gelişim karşısında hükümetlerin, özel sektörün, araştırma topluluklarının (akademi de dahil) sorumluluğu; 

(c) İyileştirilmeye ihtiyacı olan bu gibi gelişmeleri destekleyecek tavsiyeler.

 Analizlerimiz, raporların çeşitli etik, sosyal ve ekonomik konuları ele aldığı, ancak “iyi bir yapay zeka toplumu” nun gelişmesi için kapsamlı bir siyasi vizyon ve uzun vadeli bir strateji sağlamanın yetersiz kaldığı sonucuna varmıştır. Bu boşluğu doldurmaya katkıda bulunmak için, sonuçta iki yönlü bir yaklaşım öneriyoruz.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2906249

 

Büyük Veri Çağında Seçmen Mahremiyeti

 

Büyük Veri Çağında Seçmen Mahremiyeti

 

Ira Rubinstein

New York Üniversitesi – Bilişim Hukuku Enstitüsü

 

26 Nisan 2014

 

 

 

 

Özet

 

“Önceki pek çok seçim döneminde, büyük siyasi partiler için başkanlık kampanyaları ve diğer önemli seçimler, veriye odaklı hale gelmişti.  Başkanlık kampanya organizasyonları ve iki ana parti (ve onların veri danışmanları), her bir Amerikan seçmenine özgü olağanüstü ayrıntılı siyasi kayıtlar hazırlamakta ve bunların devamlılığını sağlamaktadır. Bu veritabanları, her biri yüzbinlerce veri noktasına sahip yüz milyonlarca bireysel kayıt içerir.Çünkü bu veriler bilgisayar ortamına uyarlanmıştır; adaylar, ucuz ve neredeyse sınırsız depolama, çok hızlı işleme ve ilginç seçmen kalıplarının veri madenciliğine girme kolaylığından yararlanır. 

Veri odaklı siyasi kampanyaların ayırt edici özelliği, siyasi aktörlerin, mikro hedefleme ile seçmenleri kaydetmesi, harekete geçirmesi, ikna etmesi ve seçim gününde ya da öncesinde oylamada daha iyi sonuçlar elde etmeyi hedeflemesidir. Seçmen mikro hedeflemesi, seçmenlerin, çevrimdışı ve çevrimiçi davranışlarının gözlemlenebilir örüntüleri ile adayı destekleme ve kendisi için oy kullanma olasılıkları arasındaki istatistiksel korelasyonlara dayanan, son derece kişiselleştirilmiş bir şekilde hedeflenmesidir. Başka bir deyişle, modern siyasi kampanyalar, yararlı ve beklenmedik durumların içyüzünün araştırılmasında büyük veri kümelerinin analizine ve genellikle “büyük veri” ifadesiyle özetlenen bir faaliyete dayanır. Büyük verilerin ABD seçimlerindeki önemine rağmen, veriye dayalı kampanyaların mahremiyetle ilgili etkileri, düzenlenmesi şöyle dursun, ayrıntılarıyla araştırılmamıştır bile. Aslında, siyasi kayıtlar çağdaş Amerikan yaşamında kişisel verilerin düzenlenmemiş en büyük kısmı olabilir.

Bu makale, bu dikkatsizliğe çözüm bulmayı amaçlamaktadır. Makale üç bölümden oluşmaktadır. Bölüm I, seçmen verilerinin ana kaynaklarının ilk kapsamlı analizini ve bu veriler için yasal koruma boşluğu bulunduğunu ve bağlantılı veri işleme faaliyetlerini önermektedir. Bölüm II, bireylerin hem tüketici hem de İnternet tabanlı faaliyetlerindeki mahremiyet çıkarlarını ve onların siyasi sürece katılımını; ayrıca bu analizlerin, bilgi gizliliği ve siyasi mahremiyetin geniş bir başlığı altında düzenlenmesini incelemektedir. Yani, birbiriyle ilişkili iki soru sorulmaktadır: ilki, durmak bilmeyen profilleme ve mikro hedeflemenin Amerikalı seçmenlerin mahremiyet alanını işgal edip etmediği (ve eğer öyleyse ne gibi zararlara neden olduğu) ve ikincisi, bu faaliyetlerin seçim sisteminin doğruluğunu ne ölçüde zayıflattığı.Ayrıca, siyasi aktörlerin, mahremiyetle ilgili endişeleri en aza indirmesinin üç sebebini de inceler: şeffaf veri uygulamalarının temel hususlarıyla çatışan mahremiyet konusundaki eğilim; en yüksek ticari gizlilik standartlarını takip ettiğini iddia ederken, tüm seçmen verileri gönüllü olarak temin edilmiş ya da güvenli bir şekilde tanımlanmış gibi ele alarak problemi rasyonel hale getirme eğilimi; ve kullanımlarının demokratik sürece hiçbir etkisi yokmuş gibi ticari takip ve izleme tekniklerinin hatalı bir şekilde benimsenmesi. 

Bölüm III, siyasi aktörlerin kampanya veri uygulamaları konusunda daha şeffaf olması gerektiğini vurgulayıp, zorunlu bir açıklama ve feragat rejimiden oluşan Bölüm II’de tanımlanmış zararları ele almak için ticari veri simsarlarının yeni federal gizlilik kısıtlamaları ve bireylerin, ticari firmaların çevrimiçi aktivitelerini takip edip etmeyeceklerini ve ne ölçüde hedefleme yapabileceklerini kararlaştırabilecekleri (seçmen olarak da) tamamlayıcı bir “Beni Takip Etme” mekanizmasını makul bir teklif olarak sunmaktadır. Makale, bu makul teklifin bile Temel Anayasa tarafından garanti altına alınan siyasi söylem hakları ile çelişki içine girip girmediğini sorgulamaktadır. İki argüman ortaya koymaktadır. Birincisi, Yüksek Mahkeme, diğer düzenleme biçimleri konusunda şeffaflığı benimseyen önde gelen kampanya finansmanı davalarında geliştirilen ve yeniden onaylanan doktrinler temelinde zorunlu mahremiyet açıklamalarını ve feragatnameleri desteklemeyi sürdürecektir. İkinci olarak, Mahkeme, siyasi aktörlere dayatılabilecek ağır yüke ve dikkat çeken son  Sorrell v. IMS Health kararına rağmen, Temel Anayasa doktrinleri kapsamında uzun zamandır devam eden ticari gizlilik düzenlemelerini anayasal olarak görmeye devam edecektir.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2447956

Robotlar Vergi Ödemeli Mi? Otomasyon Çağında Vergi Politikası

 

Robotlar Vergi Ödemeli Mi? Otomasyon Çağında Vergi Politikası

 

robots and tax ile ilgili görsel sonucu

 

 

Ryan Abbott &

Bret Bogenschneider

 

Surrey Üniversitesi Hukuk Fakültesi 

 

 

 

 

Özet

 

“Mevcut teknolojiler, çoğu iş sürecini çoktan otomatikleştirdi ve insan emeğinin maliyeti artarken, bu teknolojilerin maliyeti azalıyor. Bu, bilişim, yapay zeka ve robotik alanındaki sürekli ilerlemelerle birlikte uzmanların otomasyonun önemli iş kayıplarına ve gelir eşitsizliğinin artacağına yönelik tahminlerde bulunmasına yol açıyor. Politika yapıcılar, çoğunlukla yeni iş modelleri konusunda işçilerin eğitilmesine ya da otomasyonun kazanımlarını yaygınlaştıracak sosyal faydalar konusunda yatırımların yapılmasına yönelik önerilere odaklanarak, aktif bir şekilde bu problemlerle nasıl baş edileceğini tartışıyor.

Bu tartışmada, vergi politikasının önemi göz ardı edilmiştir. Bu, bu tür politikaların kritik öneme sahip olmasından dolayı talihsiz bir durumdur. Vergi sistemi, etkili olmadığı durumlarda bile otomasyonu teşvik eder.Bunun nedeni, vergi gelirlerinin büyük çoğunluğunun artık emek gelirinden kaynaklanmasıdır, bu yüzden firmalar çalışanlarını saf dışı ederek vergiden kaçınırlar.Ayrıca, bir makine bir insanın yerini aldığında, hükumet vergi gelirlerinin büyük bir miktarını kaybeder- potansiyel olarak bir yılda ortalama yüz milyar dolar-Bunların hepsi, sermayeden ziyade gelir vergisi için tasarlanmış bir sistemin istenmeyen sonucudur. Robotlar iyi bir vergi mükellefi değildir.

Biz mevcut vergi politikalarının değiştirilmesi gerektiğini iddia ediyoruz. Sistem en azından robotlar ve insan işçiler için “tarafsız” olmalıdır ve otomasyon vergi gelirlerinin azalmasına izin vermemelidir.Bu, otomatik işçiler için kurumlar vergisi kesintisinin göz ardı edilmesi, mevcut işsizlik tablolarını yansıtan bir “otomasyon vergisi” oluşturulması, insan çalışanların vergi tercihlerinin dengelenmesi, serbest meslek vergisinin desteklenmesi ve kurumlar vergisi oranının artırılması gibi bazı bileşimler vasıtasıyla başarılabilir.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://www.roboticsbusinessreview.com/wp-content/uploads/2018/05/Should-Robots-Pay-Taxes.pdf

Dünya’nın Otonom Silahları Yasal Olarak Düzenlemesi Niçin Gerekli

 

Dünya’nın Otonom Silahları Yasal Olarak Düzenlemesi Niçin Gerekli

 

Image result for autonomous weapons

 

 

The School of Media Studies at the New School in New York City

27 Nisan 2018

 

 

 

 

 

Özet

“Birleşmiş Milletler Belirli Konvansiyonel Silahların Kullanımını Yasaklanması veya Sınırlandırılması Sözleşmesi (CCW) kapsamında Cenevre’de, Hükümet Uzmanları Grubu himayesinde, ölümcül otonom silah sistemleri üzerine ikinci toplantı gerçekleştirildi. Yapay zeka silahlanma yarışına dair endişeler ve dijital teknolojilerin demokratik süreçleri yıkmadaki kullanımı, bu forumdaki tartışmaların hem aciliyetini hem de önemini artırmaktadır. Bazı gözlemciler, CCW tartışmalarının umutsuz ya da yararsız olabileceği ve hiçbir fikir birliğinin ortaya çıkmayacağımyönündeki endişelerini dile getirdiler. Bu endişeler, daha önce gerçekleşmiş olan şeylerin önemini ve ileriye dönük fırsatları gözden kaçırıyor.

Bazı gözlemciler açısından, bir yapay zeka silahlanma konusundaki endişeler, otonom silahlarla ilgili endişeleri gölgede bıraktı. Bazıları “Campaign to Stop Killer Robots” ı yapay zekayı yasaklamayı amaçlıyor diye nitelendirdi. Ben bu görüşlere katılmıyorum ve yakında çıkacak olan B / T: Bilgi Toplumu için Hukuk ve Politika Dergisi ‘de de çeşitli bilim adamları ve medyanın “YZ silahlanma yarışı” terimini, ekonomik rekabetten, otomatik siber savaşa, silahlara gömülmüş yapay zekaya kadar uzanan çok farklı ve hatta uyumsuz şeyler anlamında kullandıklarını tartıştım. Sonuç olarak, “bir YZ silahlanma yarışı” hakkında tek bir politika ile ele alınacak tekil bir olguymuş gibi konuşmak gerçekten anlamlı değildir. Üstelik, BM’de gerçekleşen tartışmalar, silahlar konusunda otonomluk üzerine odaklanmış olup, -her ne kadar normlar anlamlı insan kontrolü gibi geleneksel silahların otomatik kontrolleri üzerine kurulmuş olsa da- bu da yapay zeka silahlanma yarışının daha büyük sorunlarıyla kısmen ilişkili olup, siber savaş ve yapay zeka etiği gibi diğer alanlardaki tartışmayı da kesinlikle ilerletebilir.

CCW’nin ölümcül otonom silahlara ilişkin tartışmalarındaki temel mesele, Uluslararası Kızılhaç Örgütü’nün hedeflemenin ve saldırılarda çatışmanın “kritik fonksiyonları” olarak adlandırdığı şeyin üzerinde insan kontrolünün gerekliliğidir. Yapay zeka, silah sistemleri de dahil olmak üzere, ordular tarafından ve hatta hedefleme ve çatışmanın kritik fonksiyonları da dahil çeşitli şekillerde kullanılabilir. Mesele, ne tür bir teknolojinin kullanıldığı ya da karmaşıklığının ne olduğu değil, hedefleme ve devreye alma yetkisinin otomatik süreçlere aktarılıp aktarılmadığı ve bunun insan hakları ve insan onuru gibi insani sorumluluk ve hesap verebilirlik açısından nasıl etkileri olduğudur.”

 

Makale ile ilgili bağlantı adresine aşağıdan erişebilirsiniz:

https://thebulletin.org/military-applications-artificial-intelligence/why-world-needs-regulate-autonomous-weapons-and-soon

Anonim Robot Konuşması

 

Anonim Robot Konuşması

 

 

Madeline Lamo &

Ryan Calo

 

We Robot 2018

 

 

Giriş

“Botlar bizimle her gün konuşuyor. Genelde bu basit programlar 1966’da Eliza olarak bilinen bir program yayınlayan Joseph Weizenbaum’a kadar gidiyor.” Benim Tatlı Meleğim”deki karakterin ismini taşıyan Eliza, Rogeriyen* tarzı sorular sorarak insanlarla inandırıcı bir şekilde etkileşime giriyordu. Bugün, -Facebook’tan Twitter’a, telefon mesajlaşma uygulamalarına kadar- iletişimi destekleyen herhangi bir platform, binlerce farklı çeşitlilikteki botların karmaşıklığına ev sahipliği yapıyor. Botlar kullanışlı ve eğlenceli olabiliyor. Sanat yaratabiliyorlar. Ancak botların, birbirleriyle etkileşimde bulunan kişileri manipüle ederek ve yanlış bilgi yaymak suretiyle çok çeşitli bağlamlarda zarar verme potansiyeli de vardır. Amerikalıların hayatında son aylarda botların rolüne ilişkin artan endişeler, düzenlemelere çağrıda bulunmaktadır.

Allen Intelligence Enstitüsü’nün CEO’su Oren Etzioni, Eylül 2017’de New York Times’da “Yapay zeka sistemleri, insan olmadığını açıkça belirtmeli” kuralını önerdi. Milyoner işadamı ve teknoloji yatırımcısı Mark Cuban, Ocak 2018’de Twitter ve Facebook’un “her hesabın arkasında gerçek bir isim ve gerçek bir kişi olduğunu” ve “her hesabın arkasında tek bir insan olduğunu” doğrulaması gerektiğini tvitledi. Senatörler Klobuchar, Warner ve McCain, siyasi bağlamda botlar da dahil olmak üzere, sosyal medya kullanımı konusunda FEC düzenlemelerini değiştirecek olan “Dürüst Reklam Yasası” olarak bilinen yasayı hazırladılar. Tasarıya göre, “1 milyondan fazla kullanıcısı olan tüm dijital platformlar”ın, “çevrimiçi siyasi reklamlar için 10.000 $ ‘dan daha fazla para harcayan bir kişi veya grup tarafından satın alınan tüm seçim kampanyalarının kamuya açık bir dosyasını koruması gerekecek. Senatör Warner, Amerikalıların, bu reklamın kaynağının yabancı varlıklar tarafından oluşturulup oluşturulmadığını ve kullanıcıların bir hikayenin gerçek kişilerin paylaşımıyla ya da,  botlarla veya sahte hesaplarla trend olup olmadığını bilmesi gerektiğini belirtti.

Bu çalışma, ilk Temel Anayasanın bu tür düzenlemelerde oynayacağı rolü ele almaktadır. Bot konuşmasını, ilk Temel Anayasa kapsamında, eşik soru olarak kabul eden araştırmacılar, genel olarak, anayasal ifade özgürlüğü olarak geçerli olduğu konusunda hemfikirler. Frederick Schauer’in ünlü terminolojisini ödünç alarak, botları ilk Temel Anayasanın ” kapsam”ı içinde kabul etme niyetindeyiz. Ancak kapsam sadece bir eşik sorudur; bunun kapsama alanı bize herhangi bir devlet müdahalesinin başarılı olup olmayacağını söylemez. Genel olarak ifade etmek gerekirse, hükümet yeterli gerekçeyle, özellikle de konuşmanın doğası gereği ticari olduğu durumlarda doğru bilginin açıklanmasını isteyebilir -yiyeceklerin kalori sayımı gibi-.  Hükümet herhangi bir konuşmaya makul zaman, şekil veya yer kısıtlamaları uygulayabilir.Bir botun kendini bir birey yerine bir bot olarak tanıtmasını zorunlu tutmak, bot’un konuşmasının sansürlenmesi veya anonim bir fikrin sahibinin kimliğini ifşa edilmesinden daha farklı bir hissiyat uyandırmaktadır.

Bizim tezimiz, zoraki kendi kendini tanımlamak da dahil olmak üzere, bot konuşmasını kısıtlamanın, göründüğünden daha zor olabileceğidir. Aşağıda daha ayrıntılı olarak ele aldığımız gibi, mahkemeler, her koşulda botların kendilerini açığa çıkarmasını gerektiren bir kurala şüphecilikle bakabilirler. Örneğin, tüketici ya da politik yönlendirme ile ilgili bir endişe, sanatçıların en son eserinin arkasında bir insanın olup olmadığını bize bildirmesi gerekliliğini haklı çıkarır mı?

Çalışma şu şekilde devam ediyor. Bölüm I, botların çeşitliliği, yararı ve tehlikesi hakkında bilgi vermektedir. Bölüm II, bot veya robot konuşmasının ilk Temel Anayasa kapsamındaki durumunu özetlemektedir. Bölüm III, ifade özgürlüğünde anonimlik ile ilgili içtihat hukuku geliştirmektedir. Bu Kısımlar, botların insan olmadıklarını açıklamalarını öngören teklifin, destekçileri tarafından kurgulanan şekilde ve somut uygulamasının anayasaya göre yasal olup olmayacağının analizini içeren Bölüm 4’te toplanmaktadır.Ve son bölüm ile sonuçlandırmaktayız.”

 

Makale ile ilgili bağlantı adresine ve makalenin orijinalini aşağıda bulabilirsiniz:

https://conferences.law.stanford.edu/werobot/wp-content/uploads/sites/47/2018/02/Anonymous-Robot-Speech-We-Robot-2018.pdf

Yapay Zeka Doktorlardan Daha Başarılı Olursa

Yapay Zeka Doktorlardan Daha Başarılı Olursa

 

Related image

 

 

A. Michael Froomkin,  

Ian Kerr &

Joëlle Pineau

We Robot 2018 Konferansı

 

 

 

Özet

“Birgün, belki de yakın bir gelecekte, makine öğrenmesi tarafından gerçekleştirilen teşhis koyma, insan doktorlarca gerçekleştirilenlerden daha iyi bir başarı oranı gösterecek. Makine öğrenmesinin teşhis koymadaki hâkimiyeti tıp alanında görevi kötüye kullanma suçu, tıbbi hizmetlerin sunumunun geleceği, doktorlara belli başlı talepler ve tıbbi teşhisin kendi niteliği için– daha uzun bir sürede- ne anlama gelecek?

Bu makale, sinir ağlarına dayalı olanlar gibi, makine öğrenmesinin teşhis koymasının, – tıp alanında görevi kötüye kullanma suçu göz önünde bulundurulunca- klinik ortamlarda makine öğrenmesi tarafından tedavi standardı olarak üretilen tıbbi teşhislerin daha iyi sonuç göstereceğini öne sürüyor.  Ayrıca, dikkatli bir şekilde uygulanmadıkça, bir doktorun tıbbi teşhislerde makine öğrenmesi sistemlerini kullanması, paradoksal olarak, tıp alanında görevi kötüye kullanma suçunu engelleyici güvenlik standardını da zayıflatabilecektir. Zamanla, etkili makine öğrenmesi, teşhis sürecini makineye devretmek için ezici yasal ve etik baskı yaratabilir. Nihayetinde, benzer bir dinamik tedaviye de uzanabilir. Veri tabanlarında toplanan klinik sonuçların büyük kısmının makine öğrenmesi tarafından oluşturulan teşhisler olduğu noktasına ulaşırsak, bu durum gelecekte insan doktorlar tarafından kolayca denetlenmeyen veya anlaşılmayan karar senaryolarına yol açabilir. Ön incelemeyle karşılaştırıldığında, tedavi stratejilerinin gerçek klinik uygulamada kullanılmasının genellikle etkili olmadığı iyi bilinen bir gerçek olduğundan,  makine öğrenmesi algoritmalarının şeffaflık eksikliği tedavi kalitesinde bir azalmaya yol açabilir. Özellikle tıpta görevi kötüye kullanmanın istenmeyen sonuçlarını önlememize olanak tanıyan çeşitli olası teknik ve yasal çözümlerle ilgili olmasından dolayı, bu makale, bu senaryonun belirgin teknik yönlerini tanımlamaktadır. Sonuç olarak, yalnızca teşhis biçimi bakımından, bir makinenin önüne geçmek için, bunun, mevcut tıbbi sorumluluk kurallarını değiştirmeye yönelik güçlü bir vaka olduğunu savunuyoruz. Tedavi standardına uygun revizyonun, döngü içindeki doktorlarca önemli bir katılım sağlanmasını gerektirdiğini savunuyoruz.”

 

Makale ile ilgili bağlantı adresini ve makalenin tamamını aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3114347

Robotik Teknolojide Sorumluluk: Hayvanlar Ve Robotlar Üzerine Uluslararası Bakış

Robotik Teknolojide Sorumluluk: “Hayvanlar Ve Robotlar” Üzerine Uluslararası Bakış

 

İlgili resim

 

Richard Kelley, Enrique Schaerer,

Micaela Gomez ve  Monica Nicolescu

Nevada Üniversitesi

2010

 

 

Özet

“Servis robotları toplumda git gide yaygın hale geldiğinden, bu robotların dahil olduğu kazalar meydana geliyor. Mevcut hukuk, bu tür kazalardan kaynaklanan uyuşmazlıkları gidermek için etkin bir şekilde çalışıyor, ancak teknoloji geliştikçe ve robot otonomisi büyüdükçe, halihazırda mevcut yasaları uygulamak çok daha zor hale gelecek. Bu sebeple, insan-robot etkileşimindeki sorumluluk konularını ele almak için yeni yasal çerçeveler geliştirilmelidir. Bu çalışmada, robotların, sorumlulukla ilgili ihtilaflarda yasal amaçlarla evcil hayvanlara benzetilebileceği “Hayvanlara benzer olarak Robotlar” çerçevesini önerdik. İlk çalışmamızda, sadece, Amerika Birleşik Devletleri Federal Hükumeti’ndeki müşterek hukuka odaklanmıştık. Bu çalışmada ise, hayvanlarla ilgili Avrupa, Asya ve Kuzey Amerika’da uygulanan yerel yasaları inceledik. Analizlerimizden çıkardığımız sonuçları, çeşitli ulusların yerleşik normlarını daha iyi yansıtan; üreticilerin ve robot teknolojisi tüketicilerinin yarışan çıkarlarını daha açık bir şekilde dengeleyen, genişletilmiş bir çerçeve inşa etmek için kullanıyoruz. Çizdiğimiz yeni çerçevenin uygulanabileceği yollara örnekler de veriyoruz.”

 

Makaleye aşağıdaki bağlantıdan ulaşabilirsiniz:

https://pdfs.semanticscholar.org/8174/98e6a34922df365854c6d7fd2f18a8d1900d.pdf

Bir Robot Savaşı Mümkün Olabilir?

Bir Robot Savaşı Mümkün Olabilir?

 

İlgili resim

Peter M. ASARO

HUMlab&Felsefe Bölümü,

Umeå Üniversitesi
Kültürel Analizi Merkezi, 

Rutgers Üniversitesi

2008

 

 

Özet

 

“Modern devletler birbirleriyle savaşmaktan asla vazgeçmezken, bu savaşların nasıl yürütüleceği konusunda bazı ahlaki kısıtlamaları da kabul etmişlerdir. Bu “savaş kuralları”, askeri güçlerin örgütlenmesini ve davranışlarını düzenlemede bazı önemli işlevlere hizmet ederken, politik tartışmalar, müzakereler ve kamu algısını da şekillendirmektedir. Dünya, savaşın artan teknolojik karmaşasına alışmış olsa da, şimdi yeni yükselen teknoloji -otonom robot askerlerin eşiğinde duruyor- ve bunlarla birlikte savaş kurallarını değiştirmek için yeni baskılar yapıyor. Bu çalışma, savaşta tam otonom ve yarı otonom robotların uygulanmasından doğacak hukukun temel sorunlarını ele alacaktır. Michael Walzer tarafından dile getirildiği gibi, bu öncelikle savaş teorisinin gözden geçirilmesiyle başlar ve devamında robotların sağlanan genel çerçeveye nasıl uyduğunu ele alır. Bunu yaparken, robotların, “akıllı” bombaların ve diğer otonom teknolojilerin savaş teorisi ilkelerine nasıl meydan okuyabileceğini ve uluslararası hukukun bunları düzenleyecek şekilde nasıl tasarlanabileceğini ele alır. Bu açıdan derin çelişkilerin, savaşı yönetmeye yönelik ilkelerde ve otonom teknolojilerin savaş mücadelesine uygulanması konusundaki sezgilerimizde ortaya çıktığı sonucuna varıyorum.”

 

Makaleye aşağıdaki bağlantıdan ulaşabilirsiniz:

http://peterasaro.org/writing/Asaro%20Just%20Robot%20War.pdf