50 Soruda Yapay Zeka

 

50 Soruda Yapay Zeka

 

 

Boğaziçi Üniversitesi Bilgisayar Mühendisliği Bölümü öğretim üyesi Prof. Cem Say’ın “50 Soruda Yapay Zekâ” adlı kitabı bu ay okurları ile buluştu. Pek çok farklı alandan insanın ilgi ile karşıladığı kitap, oldukça zengin bir içeriğe sahip.

Say, kitapta bilgisayarların çeşitli kullanımlarına dair sorular sorarken, arada kendi anılarından da bahsederek okuyucuyu bağlayan bir dil kullanıyor. Hikâyeleştirilmiş anlatımı ile teknik sayılan bilgileri her kesimden okuyucunun anlayabileceği bir seviyeye indirmeyi başarıyor.

 

 

Bir hukukçu olarak, sabırsızlanıp ilk olarak okuduğum kısım ise “Bilgisayarlar avukatlık yapabilir mi?” sorusu idi. Kendisi bu sistemlerin dokümantasyon, içtihat arama ve karar tahmin etme gibi konularda avukatlardan daha başarılı olduğunu söylüyor ve bana göre bu konuda oldukça haklı. Avukatların saatlerini alan angarya pek çok iş bu sayede kolaylaşabilir.

Son soru ise bize sınırlarımızı hatırlatan cinsten: “İnsan zekâsının bir geleceği var mı?” Oldukça olumlu bir tablo çizerek bu “ek beyinlerin” geleceğimiz için faydalı olacağını söylerken, baskıcı yönetimlerce kötüye kullanımının ise insanlığı köreltebileceğinin vurgusunu yapıyor.

Kitapta yukarıdakilere ek olarak pek çok güncel ve sosyal alanlarla bağlantılı sorular da mevcut. “Robotlar aşık olabilir mi?” “Bilgisayarlar buluş yapabilir mi?” ya da “Robotlar askere alınsın mı?” gibi…

Okuması keyifli ve akıcı… Daha fazla ayrıntı vermek istemem ama kitabın son cümlesi çok umut verici: “Başarabiliriz.

 

 

Ayrıca bakınız:

Ayın kitabı: “50 Soruda Yapay Zekâ”

Yapay Öğrenme ve Hukuk

 

Yapay Öğrenme ve Hukuk

 

Lawyering in the age of algorithms

 

Harry Surden

 

Kolorado Üniversitesi Hukuk Fakültesi

 

26 Mart 2014

 

 

 

Özet

“Bu makale, hukuk uygulaması kapsamında yapay öğrenme tekniklerinin uygulanmasını araştırmaktadır. Kabaca “yapay öğrenme”, zaman içinde bazı görevleri yerine getirmeyi “öğrenen ve bunu geliştirme yeteneği olan bilgisayar algoritmalarını ifade eder. Genel olarak, yapay öğrenme algoritmaları, verideki kalıpları belirlemek için tasarlanır ve daha sonra belirli görevleri otomatikleştirmek için yeni veriler üzerinde bu kalıpları uygular. Hukuk haricinde, yapay öğrenme teknikleri bir zamanlar insan zekası gerektirdiği düşünülen görevleri otomatikleştirmek için başarılı bir şekilde uygulanmıştır – örneğin, dil çevirisi, sahtekarlık tespiti, otomobiller, yüz tanıma ve veri madenciliği. İyi performans gösteriyorsa, yapay öğrenme algoritmaları, benzer durumdaki bir kişi tarafından yapılmış olanlara yakın otomatik sonuçlar üretebilir.

Bu makale, teknik temeli olmayan kitlelere yapay öğrenme yöntemlerinin altındaki bazı temel ilkeleri yalın bir şekilde açıklayarak başlar. İkinci kısım daha geniş bir bulmacayı araştırır: hukuksal pratiklerin gelişmiş bilişsel yetenekler gerektirdiği düşünülür, ancak bu tür yüksek dereceli bir biliş, mevcut yapay öğrenme teknolojisinin dışında kalmaktadır. Bu bölüm temel bir ilkeyi tanımlar: yararlı, “akıllı” sonuçlar üretebilen, deneyimsel yetenek (istatistiksel korelasyon gibi) kullanan, zeki olmayan hesaplama tekniklerine başvurularak normalde insan zekası gerektirdiği düşünülen belirli görevlerin otomatikleştirilmesi bazen mümkündür. Üçüncü bölüm bu ilkeyi hukuk uygulamasında kullanıp, şu anda avukatlar tarafından yürütülen belirli hukuksal görevler bağlamında yapay öğrenme otomasyonunu tartışır: davaların sonuçlarını tahmin etme, hukuki belgeler ile verilerde gizlenmiş olan bağlantıları bulma, elektronik keşif ve belgelerin otomatik düzenlenmesi.”

 

Makale ile ilgili bağlatı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2417415

Modern Tüketici Dünyasında Yapay Zeka, Otomatik Karar Verme, Robotik Ve Bağlantılı Cihazların Sağlam Ve Güvenli Kullanımı İçin Politika Önerileri

 

Modern Tüketici Dünyasında Yapay Zeka, Otomatik Karar Verme, Robotik Ve Bağlantılı Cihazların Sağlam Ve Güvenli Kullanımı İçin Politika Önerileri

 

Avrupa Tüketici Danışma Grubu Görüşü
16 Mayıs 2018

 

Özet

“Tüketici bağlamında yapay öğrenme ve otomatik karar verme

Kendi adına veya insanlar yerine süreçleri yürüten ve kararlar alan kendi kendine öğrenme algoritmalarının ve yapay öğrenmenin artan kullanımı, kaçınılmaz olarak bir dizi toplumsal ve etik soruna yol açıyor. Tüketici bakış açısından, etkilenen tüketicilerin sayısı yüksek olabileceği için, büyük verilere dayanan Algoritmik Karar Verme (ADM), fiili (de facto) otomatik karar alma özel bir ilgi ve yüksek bir öneme sahiptir.Nitekim, tüketicilerin günlük yaşamlarında ADM kullanma sıklığı neredeyse sınırsızdır. Yapay zeka da uzak gelecekteki bir bilim kurgu değildir. Söz konusu örnekler, çevrimiçi perakendecilerin bireysel tüketicilerin konumlarının ve kendi kendine giden arabaların etrafta dolaşma bilgilerinin tahminlerine göre fiyatları uyarladığı algoritmaları içerir. 

Bu nedenle, tüketicinin korunmasıyla ilgili Avrupa düzenleyici çerçevesinin sadece bağlı cihazlarla değil, aynı zamanda otomatik karar verme ile ortaya çıkan zorlukları da karşılayabilmesi önemlidir. Tercihler algoritmalarla tanımlandığında, tahmin edildiğinde ve şekillendiğinde, tüketici tercihi hakkında konuşabilir miyiz?Tüketici kuruluşları, tüketicilerin haklarına algoritma ve otomatik karar verme ile saygı duyulduğundan emin olmak için, ilgili Tüketici Koruma mevzuatını değerlendirmek ve gözden geçirmek üzere Avrupa Kurumlarına çağrıda bulunmaktadır.Bu veri kullanımının faydalarını teşvik etmek, aynı zamanda ortaya çıkabilecek riskleri de ele almak için ayrıntılı bir hesap verebilirlik ve etik işleme biçimi gereklidir.”

 

Öneri ile ilgili bağlantı adresini ve önerinin orijinalini aşağıda bulabilirsiniz:

https://ec.europa.eu/info/sites/info/files/eccg-recommendation-on-ai_may2018_en.pdf

 

 

 

Telif Hakkı Yasalarının Yapay Zekanın Dolaylı Önyargı Sorununu Nasıl Düzeltebileceği

 

Telif Hakkı Yasalarının Yapay Zekanın Dolaylı Önyargı Sorununu Nasıl Düzeltebileceği

 

Yapay zeka, yemekte kedinizi pişirebilir!

 

Amanda Levendowski

New York Üniversitesi Hukuk Fakültesi 

24 Temmuz 2017

 

 

 

 

Özet: 

 

“Yapay zekanın (YZ) kullanımı yaygınlaşmaya devam ederken, ırkçı yüz tanımadan cinsiyetçi doğal dil işlemeye kadar toplumsal önyargıyı yansıtan veya şiddetlendiren YZ sistemlerinin örneklerinde de bir artış olduğunu görüyoruz.Bu önyargılar, YZ’nin teknolojik kazanımlarını ve potansiyel faydalarını gölgelemekle tehdit ediyor. Hukuk ve bilgisayar bilimi üzerine çalışan akademisyenler, çoğu kez türdeş yaratıcılarının incelenmemiş varsayımlarını, kusurlu algoritmaları ve eksik veri setlerini içeren, birçok önyargı kaynağını analiz ederken, kanunun rolü, büyük ölçüde göz ardı edilmiştir. Kodlar ve kültür, onları yöneten yasalar kadar, YZ’nin dünyada nasıl öğrendiği ve hareket ettiği konusunda önemli bir rol oynamaktadır. Bu makale,  muhtemelen YZ’nin önyargısına etki etmekte olan en güçlü yasayı inceleyen ilk makaledir: Telif Hakkı 

Yapay zeka, çoğu zaman insan eserlerinin kopyalarını okuyarak, görüntüleyerek ve dinleyerek “düşünmeyi” öğrenir. Bu makale, yasanın telif hakkıyla korunan belirli kaynak materyallere erişimi hariç tutmasının, önyargılı YZ sistemlerini nasıl oluşturabildiğine veya artırabildiğine bakarak, ilk olarak, önyargı problemini telif hakkı doktrini merceği ile inceliyor. Telif hakkı yasası, ters mühendislik, algoritmik hesap verebilirlik süreçleri ile YZ’yi deneme ve müşterileri kendine çekmek için rekabet etme gibi önyargı azaltma tekniklerini sınırlamaktadır.Telif hakkı yasası kuralları, veriler kanıtlanabilir şekilde önyargılı olsa bile, YZ oluşturucularının YZ öğreniminde yasal olarak düşük riskli veri kaynakları kullanımını teşvik ederek, başkaları üzerinden belirli çalışmalara erişim ayrıcalığı tanımaktadır. İkincisi, telif hakkı yasasının farklı bir bölümünün — adil kullanım doktrini — geleneksel olarak diğer teknolojik alanlardaki benzer konuları ele almak için nasıl kullanıldığını incelemekte ve bunların YZ önyargısı alanında eşit bir şekilde ele alıp almadığını sormaktadır. Makale, sonuç olarak, geleneksel adil kullanım içinde yer alan normatif değerlerin nihai olarak YZ önyargısının hafifletilmesi ve tam anlamıyla daha iyi YZ sistemleri yaratma hedefleriyle uyumlu olması sonucuna varmaktadır.”

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3024938

Bir Robotu Kandırmak Hacklemek midir?

 

Bir Robotu Kandırmak Hacklemek midir?

 

Ryan Calo

Ivan Evtimov

Earlence Fernandes

Tadayoshi Kohno

David O’Hair

Washington Üniversitesi

 

Özet

“”Hackleme” terimi bilgisayar sistemine zorla girme anlamına geliyor. Bir dizi yerel, ulusal ve uluslararası düzenleme, bilgisayar korsanlarının bilgi çalmak veya operasyonları aksatmak için bilgisayar sistemlerine girmelerinden sorumlu tutulmalarını amaçlıyor. Diğer yasalar ve standartlar, özel şirketlerin saldırılara karşı bilgisayarları güvenli hale getirmeleri için en iyi uygulamaları kullanmayı teşvik ediyor.

Bilgisayarlara girmeyi değil ama onları kontrol eden makine öğrenmesi modellerinin manipüle edilmesini amaçlayan yeni bir teknik, korsanlığın niteliğini yeniden değerlendirmek için yasaları ve yasal kurumları zorlayabilir. Yazarlardan üçü, örneğin, bir sürücüsüz arabanın dur işaretini hız sınırı olarak algılamasını sağlamak için, bir sistem bilgisi kullanmanın mümkün olduğunu gösterdi. Diğer teknikler, makine öğrenme sistemlerinde gizli kör noktalar oluşturuyor veya öğrenme şekillerine giren özel verileri yeniden yapılandırmaya çalışıyor.

Yapay zekânın (YZ) ortaya çıkışındaki rönesans, savunmasızlığın paralel bir keşfi ile birleştiğinde, bir bilgisayar sistemini tehlikeye atmada “hacklemek” anlamına gelen şeyin yeniden gözden geçirilmesini gerektiriyor. Garantiye almak önemlidir. Yasal ve toplumsal çerçeveler düzenlenmedikçe, hukuk ve uygulama arasındaki yanlış hizalanmanın sonuçları, suçun unsurlarının yetersiz kalması, eksik ya da çarpık güvenlik önlemleri ve kritik güvenlik araştırmalarının soğutulması ihtimalini içerir. Bu sonuncusu, araştırmacıların önyargılarının, güvenlik kısıtlamalarının ve yapay zekâ bütünleşmesindeki hatalardan doğan fırsatların oynayabileceği önemli rolün ışığında özellikle tehlikelidir.

Bu makalenin yazarları, makine öğrenimi, bilgisayar güvenliği ve hukuk alanındaki uzmanların disiplinler arası ekibini temsil etmektedir. Amacımız, karşıt makine öğrenimi (ML) yoluyla hack yapısının niteliğinin ve siber güvenlik alanının değiştirilmesi için akademinin içinde ve ötesinde hukuk ve politika topluluğu oluşturmaktır. 1986 tarihli Bilgisayar Dolandırıcılığı ve Suistimal Yasası’nı -paradigmatik federal anti-hacking yasası- örnek olay incelemesi olarak kullanarak, hukuk ve teknik uygulama arasındaki kopukluğu kanıtlamak istiyoruz. Hacklemenin kandırma içerdiği ihtimalinin belirsizliğini göstermede ne pahasına olursa olsun başarısız olduğumuzu açıklamayı umuyoruz. “

 

Makale ile ilgili bağlantı adresini ve makalenin orijinalini aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3150530

 

Yapay Zeka Çağında Mahremiyet ve İfade Özgürlüğü

 

Yapay Zeka Çağında Mahremiyet ve İfade Özgürlüğü

 

Related image

Article 19 & Privacy International

Nisan, 2018

 

Özet

“Yapay Zekâ(YZ) artık günlük hayatımızın bir parçası. Bu teknoloji, insanların bilgilere nasıl eriştiklerini, cihazlarla nasıl etkileşimde bulunduklarını, kişisel bilgileri paylaşımlarını şekillendiriyor ve hatta yabancı dilleri bile anlıyor. Ayrıca, bireylerin ve grupların nasıl izlenebileceğini ve tanımlanabileceğini dönüştürüyor ve veriden insanlar hakkında ne tür bilgilerin toplanabileceğini önemli ölçüde değiştiriyor.

YZ, toplumları olumlu yönde kökten değiştirme potansiyeline sahiptir. Ancak, herhangi bir bilimsel veya teknolojik ilerlemede olduğu gibi, devletler veya şirketler tarafından yeni araçların kullanımının insan hakları üzerinde olumsuz bir etki yaratacağına dair gerçek bir risk var.

YZ, çok sayıda haktan etkilenirken, ARTICLE 19 ve Privacy Internatinal, özellikle mahremiyet, ifade ve bilgi alma özgürlüğü üzerindeki etkilerinden endişe duymaktadır.

Bu kapsam belirleme yazısı, “yapay dar zekâ” uygulamalarına -özellikle makine öğrenimi ve bunların insan hakları üzerindeki etkilerine- odaklanmaktadır.

Bu yazının dört tane amacı bulunmakta:

  1. Tartışmayı açıklığa kavuşturmak için anahtar teknik tanımları sunma;
  2. Yapay Zekânın ifade özgürlüğü ve mahremiyet hakkını nasıl etkilediğini ve zorlukların ana hatlarıyla belirlendiği temel yolları inceleme;
  3. Mevcut hukuki, teknik ve kurumsal çerçeveler ile ifade özgürlüğü ve mahremiyet özgürlüğü ile ilgili endüstri liderliğindeki YZ girişimleri de dahil olmak üzere, mevcut YZ yönetişimini gözden geçirme; ve
  4. YZ savunuculuk faaliyetlerinde sivil toplum örgütleri ve diğer paydaşlar tarafından izlenebilecek, haklara dayalı çözümler için önerilerde bulunma.

Bu alandaki politika ve teknolojinin:

  • İnsan haklarının, özellikle ifade özgürlüğü ve mahremiyet hakkının korunmasını sağlama;
  • Yapay Zekanın hesap verebilirliğini ve şeffaflığını sağlama;
  • Hükümetleri, ifade özgürlüğünün ve mahremiyetin korunması ile ilgili yasal ve politik çerçevelerin ve YZ ile ilgili düzenlemelerin yeterliliğini gözden geçirme konusunda teşvik etme;
  • Teknolojinin etkisinden bütünsel bir anlayışla haberdar olma:- yapay zekanın insan hakları üzerindeki etkisi ile ilgili olay incelemesi ve ampirik araştırmalar toplanmalıdır-; ve
  • Sivil toplum ve uzmanlarla olan bağlantılar da dahil olmak üzere geniş bir paydaş grubuyla birlikte geliştirilmesi

konularına cevap vermesi gerektiğine inanıyoruz.”

 

Rapor ile ilgili bağlantı adresini ve raporun orijinalini aşağıda bulabilirsiniz:

https://privacyinternational.org/sites/default/files/2018-04/Privacy%20and%20Freedom%20of%20Expression%20%20In%20the%20Age%20of%20Artificial%20Intelligence.pdf

Yapay Zeka Doktorlardan Daha Başarılı Olursa

Yapay Zeka Doktorlardan Daha Başarılı Olursa

 

Related image

 

 

A. Michael Froomkin,  

Ian Kerr &

Joëlle Pineau

We Robot 2018 Konferansı

 

 

 

Özet

“Birgün, belki de yakın bir gelecekte, makine öğrenmesi tarafından gerçekleştirilen teşhis koyma, insan doktorlarca gerçekleştirilenlerden daha iyi bir başarı oranı gösterecek. Makine öğrenmesinin teşhis koymadaki hâkimiyeti tıp alanında görevi kötüye kullanma suçu, tıbbi hizmetlerin sunumunun geleceği, doktorlara belli başlı talepler ve tıbbi teşhisin kendi niteliği için– daha uzun bir sürede- ne anlama gelecek?

Bu makale, sinir ağlarına dayalı olanlar gibi, makine öğrenmesinin teşhis koymasının, – tıp alanında görevi kötüye kullanma suçu göz önünde bulundurulunca- klinik ortamlarda makine öğrenmesi tarafından tedavi standardı olarak üretilen tıbbi teşhislerin daha iyi sonuç göstereceğini öne sürüyor.  Ayrıca, dikkatli bir şekilde uygulanmadıkça, bir doktorun tıbbi teşhislerde makine öğrenmesi sistemlerini kullanması, paradoksal olarak, tıp alanında görevi kötüye kullanma suçunu engelleyici güvenlik standardını da zayıflatabilecektir. Zamanla, etkili makine öğrenmesi, teşhis sürecini makineye devretmek için ezici yasal ve etik baskı yaratabilir. Nihayetinde, benzer bir dinamik tedaviye de uzanabilir. Veri tabanlarında toplanan klinik sonuçların büyük kısmının makine öğrenmesi tarafından oluşturulan teşhisler olduğu noktasına ulaşırsak, bu durum gelecekte insan doktorlar tarafından kolayca denetlenmeyen veya anlaşılmayan karar senaryolarına yol açabilir. Ön incelemeyle karşılaştırıldığında, tedavi stratejilerinin gerçek klinik uygulamada kullanılmasının genellikle etkili olmadığı iyi bilinen bir gerçek olduğundan,  makine öğrenmesi algoritmalarının şeffaflık eksikliği tedavi kalitesinde bir azalmaya yol açabilir. Özellikle tıpta görevi kötüye kullanmanın istenmeyen sonuçlarını önlememize olanak tanıyan çeşitli olası teknik ve yasal çözümlerle ilgili olmasından dolayı, bu makale, bu senaryonun belirgin teknik yönlerini tanımlamaktadır. Sonuç olarak, yalnızca teşhis biçimi bakımından, bir makinenin önüne geçmek için, bunun, mevcut tıbbi sorumluluk kurallarını değiştirmeye yönelik güçlü bir vaka olduğunu savunuyoruz. Tedavi standardına uygun revizyonun, döngü içindeki doktorlarca önemli bir katılım sağlanmasını gerektirdiğini savunuyoruz.”

 

Makale ile ilgili bağlantı adresini ve makalenin tamamını aşağıda bulabilirsiniz:

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3114347

Otomatik Bireysel Karar Verme ve Profilleme

Otomatik Bireysel Karar Verme ve Profilleme

 

Ä°lgili resim

MADDE 29 VERİ KORUMASI ÇALIŞMA GRUBU

3 Ekim 2017       17/EN WP 251 

 

GİRİŞ

Genel Veri Koruma Tüzüğü (GDPR), özellikle profilleme ve profilleme içeren otomatik bireysel karar vermeye dikkat çekiyor.

Profilleme ve otomatik karar verme hem özel sektörde hem de kamuda artan miktarda kullanılıyor. Bankacılık, finans, sağlık hizmetleri, vergi, sigortacılık, pazarlama ve reklamcılık, profillemenin karar vermeye yardımcı olması için düzenli olarak kullanıldığı yerlerden sadece birkaç örneğini oluşturur.

Teknolojideki ilerleme ve büyük veri analizindeki yetkinlik, yapay zeka ve makine öğrenmesi, bireylerin haklarını ve özgürlüklerini önemli ölçüde etkileme potansiyeline sahip profillemeyi ve otomatik kararlar almayı kolaylaştırdı.

Kişisel verilerin internette ve nesnelerin interneti cihazlarındaki yaygın kullanılabilirliği, ilişki bulma yeteneği ve bağlantı kurması, bir bireyin kişiliğinin veya davranışının yönünü, ilgilerini ve alışkanlıklarını belirlemeye, analiz ve tahmin etmeye izin veriyor.

Profilleme ve otomatik karar verme bireyler ve organizasyonlar için olduğu kadar ekonomi ve toplumun tamamı bakımından da artan verimlilik ve kaynakların kullanımı gibi faydalar sağlıyor.

Bunların pek çok ticari uygulaması mevcut, örneğin, piyasaları daha iyi bölümlere ayırmak ve bireysel ihtiyaçlarla uyumlu hizmetleri ve ürünleri uyarlamak için kullanılabilirler. İlaç, eğitim, sağlık hizmeti ve nakliye gibi bu süreçlerin hepsinde faydalı olabilirler.

Yine de profilleme ve otomatik karar verme, uygun güvenlik önlemleri gerektirmekte olan bireylerin hakları ve özgürlükleri için önemli riskler oluşturabilir.

Bu süreç anlaşılmaz olabiliyor. Bireyler profillendiğini bilmeyebilir ya da dahil olduğunu anlamayabilir.

Profilleme, mevcut yargı kalıplarını ve sosyal ayrımcılığı devam ettirebilir. Bir insanı belli bir kategoride kilitleyebilir ve önerdiği tercihlerle kısıtlayabilir. Bu, örneğin kitap, müzik ya da haber bültenleri gibi belirli ürünleri ya da hizmetleri seçme özgürlüğünü zayıflatabilir. Bazı durumlarda yanlış tahminlere, hizmet ve malların reddine ve haksız ayrımcılığa yol açabilir.

GDPR, mahremiyetle sınırlı olmamak üzere, özellikle profilleme ve otomatik karar verme sürecinden kaynaklanan riskleri ele almak için yeni hükümler getirmektedir. Bu rehberin amacı bu hükümlere açıklık getirmektir.

Bu doküman şu bölümleri kapsamaktadır:

  • Profilleme ve otomatik karar verme tanımları ile genel olarak GDPR’ın bunlara yaklaşımı- Bölüm II
  • Madde 22’de tanımlanan otomatik karar verme ile ilgili özel hükümler- Bölüm III
  • Profilleme ve otomatik karar verme ile ilgili genel hükümler- Bölüm IV
  • Çocuklar ve Profilleme-Bölüm V
  • Veri koruma etki değerlendirmesi-Bölüm VI

Ekler ise, AB Üye Devletlerinde kazanılan deneyime dayanarak en iyi uygulama önerilerini sunmaktadır.

 

Rehberin tamamına aşağıdaki bağlantıdan ulaşabilirsiniz:

http://ec.europa.eu/newsroom/document.cfm?doc_id=47742

Büyük Veri, Yapay Zeka, Makine Öğrenmesi ve Veri Koruması

Büyük Veri, Yapay Zeka, Makine Öğrenmesi ve Veri Koruması

 

Information Commissioner’s Office

4 Eylül 2017

 

ÖNSÖZ

Büyük veri geçici bir heves değil. Ofisin bu konudaki ilk raporunun yayınlandığı 2014 yılından bu yana, büyük veri analizi uygulamaları kamu ve özel sektörlere yayılmış durumda. Bu teknolojinin hayatımız ile ilgili yapabildiği/yapabileceği şeyler ve etkileri üzerine hemen hemen her gün yeni yazılar okuyoruz. Ev aletleri bizimle konuşmaya başlıyor, akıllı bilgisayarlar profesyonel masa oyuncularını yeniyor ve makine öğrenme algoritmaları hastalıkları teşhis ediyor.

Bütün bu ilerlemeleri hızlandıran yakıt büyük veridir- sürekli ve hızla eklenen geniş ve farklı veri kümeleri-. Peki bu veri kümelerini tam olarak ne oluşturuyor? Pek çoğu kişisel veri. O araba sigortası için doldurduğunuz online form. Spor salonunda akıllı cihazınızın bir egzersiz sonrası elde ettiği istatistikler. Alışveriş merkezine yürürken yanından geçtiğiniz sensörler. Geçen hafta yaptığınız sosyal medya paylaşımları. Ve liste böyle uzamaya devam ediyor…

Dolayısıyla, büyük verilerin kullanılmasının gizlilik, veri koruması ve bireylerin ilişkili haklara- Genel Veri Koruma Yönetmeliği (GDPR) uygulanırken güçlenecek haklara etkisi olacağı açıktır. GDPR kapsamında, kişisel verilerin toplanması ve kullanılması için daha sıkı kurallar uygulanacaktır. Şeffaf olmanın yanı sıra, kuruluşların kişisel veriler ile yaptıkları işler için daha çok hesap verebilir olması gerekir. Bu durum büyük veri, YZ ve makine öğrenmesi için de farklı değildir.

Bununla birlikte, bu çıkarımlar bir sınır değildir. Bu, büyük veri ya da veri koruması veyahut büyük veriye karşı ‘veri koruması’ değildir. Bu yanlış bir anlatım olurdu. Gizlilik kendi başına bir amaç değildir, bu bir haktır. Büyük veri analizlerine gizlilik ve veri koruması katmak, sadece onur, kişilik ve topluluk gibi toplumsal faydaları değil aynı zamanda yaratıcılık, yenilikçilik ve güven gibi örgütsel fayda da sağlıyor. Kısacası, büyük verinin yapabileceği tüm iyi şeyleri yapmasını sağlar. Yine de, birinin orada durup büyük verinin hesabını tutuğu söylenemez.

Büyük veri, YZ ve makine öğrenimi dünyasına, ICO her zamankinden daha ilgili. Denetim yapma, düzeltici önlem alma ve para cezaları verme yetkisini de veren ve kişisel verilerin adil, doğru ve ayrımcı olmayan biçimde kullanılmasını isteyen mevzuatı gözetiyoruz. Ayrıca, GDPR kapsamında, ICO, gizlilik mühürleri ve sertifikasyon planlarının uygulanması yoluyla kişisel verilerin kullanımındaki standartları iyileştirmek için de çalışacak. Büyük verinin, YZ ve makine öğreniminin düzenlenmesinde doğru çerçeveyi sağlamak için benzersiz bir konumdayız ve etkin, katılımlı ve eş-düzenleyici yaklaşımımızın, bu alanda perdeyi aralamak için tam olarak ihtiyaç duyulan şey olduğuna inanıyoruz. Büyük veri, yapay zekâ, makine öğrenimi ve veri koruması.

Dolayısıyla, söz konusu ilerlemeleri ve GDPR uygulanmasını göz önüne alarak, büyük verilere ilişkin bildirimizi güncelleme zamanı geldi. Bu öncelikli olarak bir tartışılan rapor olmasına rağmen, büyük veri analizlerinin tüm sektörlerde artan şekilde kullanılmasının farkındayız ve raporun ilgili kısımlarının büyük veriyi kullanmayı düşünen ya da zaten büyük verilerle ilgilenen kişiler için faydalı olacağını umuyoruz.

Bu rapor, gördüğümüz durumun bir anlık görüntüsünü vermektedir. Bununla birlikte, büyük veri, YZ ve makine öğrenmesi dünyada büyük bir hızla ilerliyor. ICO olarak ilgili ve etkili bir düzenleyiciden bekleyebileceğiniz her şeyi öğrenmeye, buna dahil olmaya, eğitmeye ve etkilemeye devam edeceğiz.

Elizabeth Denham
Information Commissioner

 

Raporun tamamına aşağıdaki bağlantıdan ulaşabilirsiniz:

https://ico.org.uk/media/for-organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf


Alıntı için :

Selin Cetin
"Büyük Veri, Yapay Zeka, Makine Öğrenmesi ve Veri Koruması"
Hukuk & Robotik, Saturday January 27th, 2018
https://robotic.legal/big-data-artificial-intelligence-machine-learning-and-data-protection/- 09/12/2021