Yapay Zeka ve Covid-19 Kontrolü

 

Yapay Zeka ve Covid-19 Kontrolü

 

Özel Yapay Zeka Komitesi (CAHAI) Sekreterliği

2020

 

Yapay zeka (YZ), 2020’nin başından beri tüm dünyayı etkileyen pandemiye karşı mücadeleyi desteklemek için bir araç olarak kullanılmaktadır. Basın ve bilim camiası, veri bilimi ve yapay zekanın Corona Virüse karşı koymak (D. Yakobovitch, How to fight the Coronavirus with AI and Data Science, Medium, 15 February 2020) ve hala bilimin bıraktığı “boşlukları doldurmak” için kullanılabileceği yönündeki umutları yansıtmaktadır (G. Ratnam, Can AI Fill in the Blanks About Coronavirus? Think So Experts, Government Technology, 17 March 2020).

Bu hastalığın merkezi ve bu alandaki teknolojik ilerlemesi ile tanınan Çin, bunu gerçek bir avantajı dönüştürmeye çalıştı. Kullanımları, toplum hareketlerini kısıtlayan tedbirleri, salgının evrimini tahmin etme ve bir aşı veya tedavi geliştirme araştırması için destek içeriyor gibi görünmektedir. İkincil yönüyle YZ, genom dizilimini hızlandırmak, daha hızlı teşhisler koymak, analizler yapmak veya nadiren de olsa bakım ve dağıtım robotları için kullanılmıştır(A. Chun, In a time of coronavirus, China’s investment in AI is paying off in a big way, South China Morning post, 18 March 2020). 

Bilimsel yayınlara daha iyi erişim sağlama veya araştırmayı destekleme açısından inkar edilemez katkıları olsa da, klinik test aşamalarına olan ihtiyacı ortadan kaldırmamakta ve insan uzmanlığının yerini tamamıyla alamamaktadır. Bu kriz durumunda sağlık altyapısının karşılaştığı yapısal sorunlar teknolojik çözümlerden değil, bu tür durumların oluşmasını önleyebilecek sağlık hizmetleri organizasyonundan kaynaklanmaktadır (Article 11 of the European Social Charter). Yapay zeka da dahil olmak üzere teknolojik çözümlerin kullanıldığı acil durum önlemleri de kriz sonunda değerlendirilmelidir. Bireysel özgürlükleri ihlal edenler, toplumun daha iyi korunması bahanesiyle önemsizleştirilmemelidir. Sözleşme 108+ hükümleri özellikle uygulanmaya devam etmelidir.

Yapay zekanın tedavi araştırmalarına katkısı

Sağlık krizi karşısında YZ uygulamasından beklenen araştırmacılara, hasta bakıcıları koruyabilecek ve salgına çözüm olabilecek bir aşı bulma konusunda kesinlikle yardımcı olmasıdır. Biyotıp ve araştırma, bilgisayar bilimi ve istatistiğin çeşitli uygulamalarının uzun zamandır katkısı olduğu çok sayıda tekniğe dayanmaktadır. YZ kullanımı bu nedenle bu sürekliliğin bir parçasıdır.

YZ tarafından oluşturulan virüs yapısı tahminleri, bilim insanlarını aylarca süren deneylerden kurtarmıştır. “Devamlı” kurallar ve protein katlanması çalışması için sonsuz kombinasyonlar nedeniyle sınırlı olsa bile, YZ bu anlamda önemli bir destek sağlamış gibi görünmektedir. Amerikan menşeli start-up Moderna, protein katlanması çalışmasının esası ribonükleik asit (mRNA) habercisi olan biyoteknolojideki yetkinliği ile fark yaratmıştır. YZ’nin ayrılmaz bir parçası olan biyoinformatik desteği sayesinde insanlar üzerinde test edilebilen prototip aşının geliştirilmesi için gerekli olan zamanın önemli ölçüde azaltılması sağlandı.

Benzer şekilde, Çin teknoloji devi Baidu, Oregon Eyalet Üniversitesi ve Rochester Üniversitesi ile ortaklaşa, aynı protein katlanmasını incelemek için Şubat 2020’de Linearfold tahmin algoritmasını yayınladı. Bu algoritma, bir virüsün ikincil ribonükleik asidinin (RNA) yapısını tahmin etmede geleneksel algoritmalardan çok daha hızlıdır ve bilim insanlarına virüslerin nasıl yayıldığı hakkında ek bilgi sağlamaktadır. Covid-19’un RNA dizisinin ikincil yapısının tahmini bu nedenle 55 dakika yerine 27 saniye içinde Linearfold tarafından hesaplanmaktadır (Baidu, How Baidu is bringing AI to the fight against coronavirus, MIT Technology Review, 11 March 2020). Google’ın ana şirketi olan Alphabet’in bir yan kuruluşu olan DeepMind, koronavirüs protein yapısının tahminlerini AlphaFold AI sistemi ile paylaştı(J. Jumper, K. Tunyasuvunakool, P. Kohli, D. Hassabis et al, Computational predictions of protein structures associated with COVID-19, DeepMind, 5 March 2020). IBM, Amazon, Google ve Microsoft ayrıca epidemiyoloji, biyoinformatik ve moleküler modelleme konusunda büyük veri kümelerini işlemek üzerine sunucularının bilgi işlem gücünü ABD yetkililerine temin etmiştir (F. Lardinois, IBM, Amazon, Google and Microsoft partner with White House to provide compute resources for COVID-19 research, Techcrunch, 22 March 2020).

*Bu yayın, medyadan ve diğer mevcut kamu kaynaklarından makalelere kapsamlı bir genel bakış sunmayı amaçlamaktadır. CAHAI ve Avrupa Konseyi’nin görüşlerini yansıtmamaktadır.

 

Yazının orijinalini ve tamamını aşağıda bulabilirsiniz:

https://www.coe.int/en/web/artificial-intelligence/ai-and-control-of-covid-19-coronavirus

2019 Yılında Yapay Zeka Konusunda Neler Oldu?

 

2019 Yılında Yapay Zeka Konusunda Neler Oldu?

 

 

2019’da da en çok konuştuğumuz konulardan biriydi. Aslında geçtiğimiz yıl, teknolojik gelişmelerin yaşanmasından ziyade mevcut teknolojinin yanlış ve etik dışı kullanımının yarattığı sonuçlarla yüzleşme ve bunlara karşı tepki gösterme yılıydı diyebiliriz.

Kişisel verilerin güvenliği gündemdeki önemli konulardan biri oldu. Facebook’un kullanıcı verileri ile ilgili skandalları da yine devam etti. HUD, Facebook’un kullanıcıların kişisel verilerini konut reklamlarını kimlerin görüntülediğini belirlemek için kullandığını iddia etti -reklam verenin böyle bir amacı olmasa bile-. Bu durumun ise kişileri aile, yalnız yaşayan, Hristiyan olmayan gibi kategorilere dahil ederek ayrımcılığa yol açtığı vurgulandı. Türkiye’de de Kişisel Verileri Koruma Kurulu tarafından, kamuoyuna “fotoğraf API” olarak yansıyan veri ihlali dolayısıyla gerekli teknik ve idari tedbirleri almadığı anlaşılan Facebook hakkında 1.100.000 TL; ayrıca Kanunun en kısa sürede bildirim yapılması gerektiği hükmüne aykırı hareket edilmesi ile ilgili 550.000 TL idari para cezası verilmişti.

2019’un belki de en önemli gelişmelerinden biri San Francisco tarafından yüz tanıma sistemlerinin kullanımının yasaklanması oldu. Söz konusu yasak, şehir polisi ve bölge şerif departmanı da dahil olmak üzere devlet kurumlarını kapsamakla birlikte; telefonun ekran kilidini açmak için kullanılan sistemler bunların dışında tutulmuştu. Bu durum hükümetlerin gelişen teknolojileri bireyler üzerinde baskıcı ve ayrımcı bir amaçla kullanmaması adına önemli bir adım oldu. İlerleyen aylarda Oakland ve Sommerville tarafından da yüz tanıma yasaklandı.

Yüz tanıma sistemlerinin şirketler tarafından da yoğun şekilde kullanıldığı bir yıldı. Ocak ayında hissedarları Amazon’un elinde bulundurduğu yüz tanıma verilerini hükümete satmaması yönünde baskı yaptı.

ABD HAVA KUVVETLERİ YAPAY ZEKA STRATEJİ PLANINI AÇIKLADI

İklim değişikliği konusundaki tartışmalar da gündemdeydi. Greta Thunberg’in Birleşmiş Milletler’deki konuşması ile daha da alevlenen bir hal aldı. Büyük teknoloji şirketleri de iklim değişikliği konusunda harekete geçti. Google ve Microsoft şubat ayında en büyük petrol şirketlerinden bazılarına otomasyon, bulut ve yapay zeka hizmetleri sağlamak için adımlar attı. Bu sayede, toplumda artan farkındalıkla beraber, petrol ve doğalgaz çıkarılmasında yüksek verimlilik sağlayan ve çevreye duyarlı teknolojilerin geliştirilmesi hedeflenmekte.

Savunma alanında da yapay zekanın kullanımına yönelik gelişmeler yaşandı. ABD Hava Kuvvetleri yapay zeka strateji planını açıkladı. Yapay zekanın ticari kullanımlarının devletçe kontrol edilemez bir aşamada olduğu dile getirilirken, yapay zeka konusunda bugün atılacak adımların ilerleyen dönemde ülkeyi güçlendirebileceği gibi köleleştirebileceğinin de vurgusu yapıldı.

Yapay zeka sistemlerinin kullanımından doğan olumsuz sonuçların önüne geçmek adına Avrupa’da da birtakım adımlar atıldı. Avrupa Konseyi yapay zeka ve veri koruması üzerine kılavuz ilkeler yayınladı. Kılavuz ilkeler, yapay zeka uygulamaları geliştirirken insanlık onuru, insan hakları ve kişisel verilerin korunması gibi hakların güvenceye alınmasına vurgu yapmakta. Kılavuz, ayrıca geliştiriciler için de yol göstermekte; buna göre, geliştirme aşamasında ihtiyaç fazlası verileri azaltıp modelin doğruluğu yeni verilerle beslenerek değerlendirmeli.

Avrupa Komisyonu ise yapay zekanın etik kullanımına yönelik bir kılavuzyayınladı. 2018’de hazırlanan taslak metin kamuoyunun görüş ve önerilerine açılmıştı. Nisan ayında yayınlanan nihai metinde şu vurgular yer aldı:

  • Yapay zeka sistemlerini adalet ve şeffaflık açısından etik ilkelere uyacak şekilde geliştirin, uygulayın ve kullanın.
  • Çocuklar, engelliler ve diğer dezavantajlı gruplar bakımından olan kullanımlarda daha özenli davranın.
  • Demokrasi, hukukun üstünlüğü, adaletin sağlanmasında olumsuz etkiler yaratabileceğini de göz önünde bulundurarak gerekli önlemleri alın.

İngiltere Veri Koruma Otoritesi (ICO) ve Alan Turing Enstitüsü’nün ortak hazırladığı kılavuz da yapay zeka ve kişisel verilerin korunmasına ilişkin önemli bir gelişme oldu. Yapay zeka kullanımından etkilenen kişiler bakımından bu süreçlerin açıklanabilir olması için pratik tavsiyeler içermekte. Özellikle şirketin teknik ve uyum ekipleri ile DPO’ya yol gösterici olması hedeflenmekte.

TOPLUMSAL ETKİLERİNE ODAKLANILMAYA BAŞLANDI

Türkiye’de de yapay zekanın hukuki etkilerine yönelik üç büyük baronun -İstanbul, Ankara ve İzmir Baroları- birlikte kaleme aldığı “Yapay Zeka Çağında Hukuk” raporu yayınlandı. Ağustos ayında kamuoyunun yorum ve görüşlerine açılan taslak metin aralık ayında İstanbul Barosu’nda düzenlenen bir etkinlikle kamuoyuna duyuruldu. Metin, Türkiye’de yapay zeka ve hukuk konulu ilk rapor olma özelliğini taşımakta.

Yazının tamamı için:

https://www.siberbulten.com/makale-analiz/2019-yilinda-yapay-zeka-konusunda-neler-oldu/

Robotları Kandırmanın Cezası Var Mı?

 

Robotları Kandırmanın Cezası Var Mı?

 

robots and ML ile ilgili görsel sonucu

 

Akıllı teknolojiler hayatımızı her anlamda kolaylaştırmaya, pratikleştirmeye devam ediyor. Sesli asistanlardan, giyilebilir teknolojilere, sürücüsüz araçlara ve internette karşılaştığımız botlara kadar olarla artık sürekli etkileşim halindeyiz. Vazgeçilmez hale gelen bu teknolojiler teknik anlamda farklı yöntemler kullanılarak oluşturuluyor. Bunlardan biri de makine öğrenmesi ya da diğer bir deyişle yapay öğrenme(YÖ).

YÖ kısaca veriler üzerinden tahminlerde bulunup, karmaşık örüntüleri algılama ve akılcı karar verebilme üzerine odaklı bir bilim dalıdır. YÖ’nün geçmişine baktığımızda, modern yapay öğreniminin matematiksel temellerinin birçoğunun, bilgisayarlardan önce geldiğini görüyoruz.Bu konudaki büyük atılımlar, 18. yüzyılda Pierre-Simon Laplace’ın Bayes Teoremi’ni tanımlamasını sağlayan Thomas Bayes’in çalışmalarını içeriyor.(1812). Bu dönemlerde yapılan çalışmalar, günümüzdeki yapay öğrenmenin ataları sayılıyor. 1940’lı yıllara gelindiğinde ise başta Manchester, Cambridge ve Pennsylvania Üniversitelerideki çalışmalar dikkat çekmeye başlıyor. 1950 yılında Alan Turing’in bir makinenin düşünüp düşünmeyeceğine yönelik olan “Computing Machinery and Intelligence” makalesi büyük yankı uyandırıyor. Bunu takip eden önemli gelişime 1951 yılında Marvin Minsky ve Dean Edmonds’in, organik beyinlerin çalışma şeklinin bilgisayar tabanlı bir simülasyonu olarak ilk yapay sinir ağını tasarlaması oluyor. 1Oluşan büyük beklentinin hayal kırıklığına sebep olması ve yaşanan yavaşlama dönemi sonrasında, yakın geçmişimizden başlayarak bu çalışmalar tekrar büyük bir hız kazanmış durumda.

YÖ’de temelde üç yaklaşım bulunmaktadır: gözetimli, gözetimsiz ve pekiştirmeli öğrenme.

Gözetimli öğrenmede, girdi değişkenlerini (X), çıktı değişkenlerine (Y) eşleme işlevini öğrenmek için etiketli eğitim verileri kullanılıyor.2Daha anlaşılır bir dil ile, diyelim ki siz bir emlakçısınız. İşleriniz büyüyor ve size yardım etmesi için birçok stajyer işe aldınız. Ama bir problem var — siz bir eve baktığınızda evin değeri hakkında iyi bir tahminde bulunabiliyorsunuz ama stajyerlerinizin tecrübesi olmadığından nasıl değer biçmeleri gerektiğini bilmiyorlar. Stajyerlere yardım etmek amacıyla (ve kendinizi tatil için boşa çıkarmak maksadıyla), sizin bölgenizdeki ev fiyatlarını genişlik, muhit ve benzer evlerin kaça satıldığı vb. gibi özelliklere göre hesaplayan basit bir uygulama yazmaya karar verdiniz. Bu yüzden son üç ayda şehirde satılan tüm evlerin fiyatlarını kaydettiniz. Satılan her evin oda sayısı, genişliği, muhiti vb. gibi detaylı özelliklerini not aldınız. Ama en önemlisi nihai satış fiyatını da kaydettiniz. Bu eğitim verisini kullanarak, bizim bölgemizdeki diğer tüm evlerin satış fiyatlarını tahmin eden bir program yazmak istiyoruz. İşte bu yöntem gözetimli öğrenmedir. Her bir evin kaça satıldığını biliyorsunuz, yani problemin cevabını biliyorsunuz ve oradan yola çıkarak geriye doğru bir mantık oluşturmaya çalışıyorsunuz.3 Gözetimsiz öğrenmede ise sistem yalnızca girdi değişkenlerine (X) sahip, buna karşılık çıktı değişkenleri bulunmuyor. Verilerin altında yatan yapıyı modellemek için etiketsiz eğitim verileri kullanılıyor. 4Yine baştaki emlakçı örneğine geri dönelim. Her evin satış fiyatını bilmeseydiniz ne olurdu? Tüm bildiğiniz evin genişliği, yeri vb. gibi bilgiler olsa bile, görünen o ki hala işe yarar hesaplamalar yapabilirsiniz. Buna da gözetimsiz öğrenme deniyor.Bu yöntem şuna benziyor: Birisi size bir kağıtta sayı listesi veriyor ve şunu diyor “bu sayıların ne ifade ettiğini bilmiyorum ama belki sen burada bir düzen veya grup gibi birşey bulabilirsin — iyi şanslar!”.5Pekiştirmeli öğrenmede ise yazılımlar, genellikle deneme yanılma yoluyla en iyi eylemleri öğrenirler. Bu yöntem genel olarak robotikte kullanılır. Burada bir robot, engele çarptıktan sonra negatif geri bildirim alarak çarpışmalardan kaçmayı öğrenebilir. Ayrıca video oyunlarında da, yine deneme yanılma yöntemiyle bir oyuncunun ödülleri alabileceği belirli hareketleri saptayabilir ve bir sonraki hareketini buna göre komutlar.6

Günümüzde oldukça ilerleyen bu teknikler pek çok alanda da kullanılmaya başlandı.Nesne ve ses tanıma, görüntü işleme, arttırılmış gerçeklik bu konuda ilerleme kat edilen önemli konulardan bazılarını oluşturuyor. Bunlar hayatımızı kolaylaştırmakla birlikte bazı hukuksal sorunları da beraberinde getiriyor. 2018 WeRobot konferansında Washington Üniversitesi’nden Ryan Calo ve ekibinin sunduğu “Is tricking a robot hacking? yani “Bir robotu kandırmak hacklemek midir?” adlı makalesinde harika bir hususa değiniyor. Calo’ya göre, hasmane YÖ (adversarial ML) hukuksal açıdan da incelenmesi gereken bir konu. Hasmane YÖ, yapay öğrenme ile bilgisayar güvenliğinin ortak çalışma alanını oluşturuyor. Burada öğrenme algoritmalarının güvenlik açıklarından faydalanılarak, giriş verileri sistem güvenliğini tehlikeye atmak için manipule ediliyor. Hasmane YÖ’ye karşı savunma yapmak da oldukça güç; çünkü hasmane örnek hazırlayıp sürecin kuramsal modelini oluşturmak zorludur. Araştırmalar, YÖ algoritmalarının kırılabileceğini ortaya koymakta ve YÖ’deki bu başarısızlık, basit algoritmaların bile tasarımcılarının düşündüğünden oldukça farklı davranabileceğini göstermektedir.7

Örneğin, hasmane YÖ kullanılarak, televizyondaki bir reklamda gömülü olan ve hiç kimsenin anlamlı bir şekilde farkına varamayacağı olumsuz bir ses girdisi yoluyla sesi işiten kişisel asistan sosyal medyada konum verisi paylaşabilir. Ya da sürücüsüz bir araç, dur işaretini bir hız limiti olarak algılayıp durmak yerine hızlanarak trafik kazasına yol açabilir.8 Görüldüğü gibi, aslında sisteme doğrudan bir müdahale yapılmayıp, sistem “kandırılarak” belli bazı sorunlara sebebiyet veriliyor. Calo’nun da dediği gibi asıl soru şu: “Bir robotu kandırmak hacklemek midir?” Ve bunun hukuktaki yansımaları nasıl olur?

Türk Ceza Kanunu(TCK) bilişim suçlarını birden fazla maddede düzenlemiştir. Bilişim Alanında Suçlar başlıklı bölümünde, madde 243’te hukuka aykırı olarak bilişim sistemine girme ve sistemde kalma suçunu düzenlemektedir. Buna göre, “Bir bilişim sisteminin bütününe veya bir kısmına, hukuka aykırı olarak giren veya orada kalmaya devam eden kimseye bir yıla kadar hapis veya adlî para cezası verilir.” Veriler ele geçirilsin veya geçirilmesin bilişim sistemine hukuka aykırı olarak girilmesi ve orada kalınması bu suçun eylemini oluşturmaktadır. Burada failin eylemi neticesinden bir zarar veya tehlike oluşması aranmamakta, sisteme girilmesi ve orada kalınması yeterli görülmektedir.

Bilişim sistemlerinin işleyişinin engellenmesi veye bozulması suçu ile verilerin yok edilmesi veya değiştirilmesi suçunu düzenleyen madde 244/1-2’ye göre ise, “Bir bilişim sisteminin işleyişini engelleyen veya bozan kişi, bir yıldan beş yıla kadar hapis cezası ile cezalandırılır.Bir bilişim sistemindeki verileri bozan, yok eden, değiştiren veya erişilmez kılan, sisteme veri yerleştiren, var olan verileri başka bir yere gönderen kişi, altı aydan üç yıla kadar hapis cezası ile cezalandırılır.” Bu düzenleme ile bilişim sisteminin her nasıl olursa olsun çalışmasının engellenmesi, sistemin bozulması ve verilere zarar verilmesi ya da erişilmez hale getirilmesi cezalandırılmaktadır. Maddenin gerekçesinde de, bu maddeyle bilişim sistemlerine yöneltilen ızrar (mala zarar verme) eylemlerinin ayrı bir suç haline getirildiği belirtilmektedir. Ayrıca yine maddenin gerekçesinde, yapılan düzenleme ile “aracın fizik varlığı ve işlenmesini sağlayan bütün diğer unsurları, söz konusu suçun konusu oluşturmaktadır” denilerek bilişim sisteminin somut ve soyut bütün unsurlarının bu suçun konusunu oluşturacağı ifade edilmektedir.9

TCK devamında madde 245’te banka ve kredi kartlarının kötüye kullanılması suçlarını düzenlemiştir. Kısacası bu madde ile söz konusu kartların haksız, hukuka aykırı olarak kullanılması yoluyla bankaların ve kart sahiplerinin zarara sokulması ve bu suretle hukuka aykırı yarar sağlanması istenmektedir.10

Bilişim alanında suçlar başlıklı bölüm dışında, TCK, Malvarlığına Karşı Suçlar başlıklı bölümünde madde 142’de hırsızlık suçunun nitelikli hali olarak fıkra 2, e bendinde “bilişim sistemlerinin kullanılması suretiyle” ifadesine yer verilmiştir. Bunun dışında, madde 135 vd. kişisel verilerin korunmasına ilişkin suçlarından; madde 124 haberleşmenin engellenmesi suçundan; madde 132 haberleşmenin gizliliğini ihlal suçundan bahsetmekte ve Kanun bilişim sistemleri aracılığıyla işlenebilecek diğer suç tiplerine de ilgili maddelerde yer vermektedir.

Sonuç olarak, TCK’nın bilişim suçları ile ilgili düzenlemelerine baktığımızda, genel itibariyle bilişim sistemlerine girip belli birtakım değişiklikler, tahribatlar, kopyalamalar vs. yapılması üzerine kurgulanmıştır. Ancak, gelişen teknoloji ile birlikte kötü niyetli kişiler yukarıda da anlatıldığı üzerine doğrudan sisteme bir müdahale etmeden de zararların oluşmasına sebep olabiliyor. Sürcüsüz aracın hasmane YÖ ile durma işaretini hızlan olarak algılayıp bir insanın ölümüne sebep olduğunu ve kötü niyetli kişilerin bu kasten yaptığını düşünelim. TCK, bilişim alanında suçlar başlığı altında bilişim sistemlerine yapılan müdahalelere yönelik düzenlemere yer verdiğinden, burada farklı bir yol izlenmesi gerecek.Çünkü örnekte olduğu gibi, bu teknolojinin getirdiği kolaylıktan faydalanılarak suçun işleyişi kolaylaşmaktadır. Kasten öldürme, kasten yaralama, özel hayatın gizliliğini ihlal,  trafik güvenliğini tehlikeye sokma gibi suçları da oluşturacak şekilde hasmane YÖ gibi teknolojiler kullanılabilmektedir. Dolayısıyla bunlar gözetilerek, nitelikli hal olarak bu teknolojileri kullanmanın getirdiği kolaylıkla suçun işlenmesi durumu TCK’ya eklenmelidir.

Prof. Dr. Cem Say, Richard Kelley ve Av. Gökhan Ahi’ye değerli görüşleri için teşekkürler…

Ayrıca bakınız:

Robotları kandırmanın cezası var mı?

Yapay Zekâ, Veri Güvenliği ve GDPR

Yapay Zekâ, Veri Güvenliği ve GDPR

 

 

Günümüzde pek çok sektörde kullanılmaya başlanana yapay zekâ ve makine öğreniminin öne çıkan özellikleri arasında, verileri programatik araçlardan ve insandan çok daha hızlı analiz edebilmesi ve verilerin nasıl işleneceğini kendi kendine öğrenebiliyor olması bulunuyor.

Özellikle son yıllarda hem kamu hem de özel sektörde sıklıkla kullanılan profilleme ve otomatik karar verme sistemleri, artan verimlilik ve kaynakların korunması bakımından bireylere ve kurumlara çeşitli faydalar sunarken aynı zamanda riskleri de beraberinde getiriyor. Bu sistemlerin aldığı kararlar bireyleri etkileyebiliyor ve karmaşık yapısı dolayısıyla kararlarının gerekçesini izlemek mümkün olamayabiliyor. Örneğin, yapay zekâ, bir kullanıcıyı belirli bir kategoriye kilitleyip, önerilen tercihlere göre kısıtlayabiliyor. Bu, dolayısıyla onların kitap, müzik veya haber yazısı gibi belirli ürün ve hizmetleri seçme özgürlüklerini de daraltabiliyor. (Article 29 Data Protection Working Party, WP251, sf.5)

Mayıs ayında Avrupa’da yürürlüğe girecek olan GDPR, profilleme ve otomatik karar vermenin bireylerin hakları üzerinde olumsuz bir etki doğuracak şekilde kullanılmaması için çeşitli hükümler barındırıyor. GDPR, profillemeyi madde 4’te şöyle tanımlıyor: “Profilleme, belirli bir şahısla ilgili onun kişisel yönlerini değerlendirmek için kişisel verilerinin kullanılması; özellikle bu kişinin işteki performansı, ekonomik durumu, sağlık bilgileri, ilgi alanları, güvenilirlik, davranış, konum veya hareketlerinin analiz edilmesi veya tahmin edilmesidir.” (WP251, sf.6) Profilleme, çeşitli kaynaklardan bireylerle ilgili elde edilen verilerin kullanılarak, kişilerle ilgili tahminlerde bulunmada kullanılır. Bu açıdan, yaş, cinsiyet, kilo gibi özelliklere dayanarak bireylerin değerlendirilmesi ya da sınıflandırılması olarak da düşünülebilir.

Otomatik karar verme ise insan müdahalesi olmaksızın teknolojik araçlarla (yapay zekâ gibi) karar verme özelliğidir. Otomatik karar verme herhangi bir veri türüne dayanabilir. Örneğin, kişiler tarafından doğrudan sağlanan veriler (ankete verilen cevaplar); kişilerden sağlanan veriler (uygulama aracılığıyla konum verisinin toplanması); önceden oluşturulmuş, türetme ya da sonuç çıkarmaya dayalı bireyin profili.

Potansiyel olarak bir profilleme için ise üç yol vardır:

-i. Genel profilleme,

-ii. Karar verme temelli profilleme,

-iii. Yalnızca otomatik karar verme içeren profilleme (madde 22)

(ii) ve (iii) arasındaki fark, (ii)’de tamamen otomatik araçlarla üretilen bir profile dayalı insan kararı vardır. (iii)’te ise kararı algoritma verir ve karar anlamlı insan girdisi olmaksızın bireye otomatik olarak teslim edilir. (WP251, sf.8)

Burada karşılaşılacak önemli sorular ise şunlardır:

-Algoritma bu verilere nasıl erişiyor?

-Verinin kaynağı doğru mu?

-Algoritmanın verdiği karar, kişi üzerinde yasal etkiler doğuruyor mu?

-Bireyler otomatik işlemeye dayalı verilen karar karşısında birtakım haklara sahip olabilir mi?

-Veri sorumluları bu durumda ne gibi önlemler almak zorunda?

Günümüzde çoğu şirket müşterilerinin davranışlarını onlardan topladıkları verilerle analiz edebiliyor. Örneğin, bir sigorta şirketi, sürücünün sürüş davranışlarını izleyerek sigorta primlerini otomatik karar verme yoluyla belirleyebilir. Bunun yanında özellikle reklam ve pazarlama uygulamalarında farklı kişilerin verilerinden yola çıkarak yapılan profilleme ve otomatik karar verme sistemleri, diğer bireyler üzerinde de etkili sonuçlar doğurabiliyor. Varsayımsal olarak, bir kredi kartı şirketi, bir müşterinin kart limitini, kendi ödeme geçmişine dayanmadan aynı bölgede yaşayan ve aynı mağazadan alışveriş yapan diğer müşterileri analiz ederek azaltabilir. Dolayısıyla bu, başkalarının eylemlerine dayalı olarak, bir fırsattan mahrum kalma anlamına gelir.

Hataların hesabı veri sorumlusundan sorulacak

Bu nokta dikkat edilmesi gereken husus, toplanan veya paylaşılan verilerdeki hatalar ya da önyargılar otomatik karar verme sürecinde yanlış sınıflandırmalara ve kesin olmayan sonuçlara dayalı değerlendirmelere neden olup bireyler açısından olumsuz etkiler doğurabilmesidir. Kararlar güncel olmayan verilere dayanabilir ya da dışarıdan alınan veriler sistem tarafından yanlış yorumlanabilir. Yani otomatik karar vermede kullanılan veri doğru değilse bu durumda sonuçtaki karar ya da profilleme de doğru olmayacaktır.

Yapay zekâ ve makine öğrenmesinin kullanıldığı bu gibi sistemlerde oluşabilecek benzeri muhtemel hatalar karşısında “veri sorumlusunun” birtakım yükümlülükleri doğacaktır. Veri sorumlusu, kullanılan ya da dolaylı olarak elde edilen verilerin doğru ve güncel olması için yeterli önlemleri almalıdır. Ayrıca verilerin saklanma süreleri de doğruluk ve güncelliğin sağlanması için sakıncalar yaratabileceği gibi, orantılılık ilkesi ile de çelişeceğinden uzun süreli veri saklanması konusunda da veri sorumlusu gerekli adımları atmalıdır.

Diğer önemli husus ise özel nitelikli kişisel verilerin bu sistemlerce işlenip kullanılmasıdır. GDPR, özel nitelikli kişisel verilerin işlenmesinde ilgili kişinin açık rızasını aramaktadır. Ancak, bu durumda veri sorumlusunun unutmaması gereken şey, profillemenin özel nitelikli kişisel veri olmayan verilerin birleşimi ile özel nitelikli kişisel veri oluşturabilir olmasıdır. Örneğin, bir kişinin sağlık durumu, gıda alışverişi kayıtlarından, gıdaların kalite ve enerji içeriği ile ilgili verilerinden elde edilmesi ile mümkün olabilir. (WP251, sf.22)

GDPR, verileri kullanılarak otomatik karar verme işlemlerinden etkilenen kişilerin bu durum karşısında bazı hakları olduğundan da bahseder. GDPR’ın temelini oluşturan şeffaflık ilkesi göz önüne alındığında, madde 13 ve 14’e göre, veri sorumlusu bireylere açık bir şekilde profilleme veya otomatik karar verme sürecinin nasıl işlediğini açıklamalıdır.

Profilleme, hata riskini artıran bir tahmin unsuru içerebilir. Girdi verileri yanlış veya alakasız olabilir ya da bağlam dışı kalabilir. Bireyler kullanılan verilerin ve gruplandırmanın doğruluğunu sorgulamak isteyebilir. Bu noktada, madde 16’ya göre, ilgili kişinin düzeltme hakkı da söz konusu olacaktır.

Benzer şekilde, madde 17’de belirtilen silme hakkı da bu çerçevede ilgili kişi tarafından talep edilebilir. Profillemenin temeli için rıza gösterilirse ve bu rıza sonradan geri çekilirse veri sorumlusu profilleme için başka yasal dayanak olmadığı sürece ilgili kişinin kişisel verilerini silmek zorundadır.

Çocukların kişisel verilerinin önemi

Profilleme ve otomatik karar vermede dikkat edilmesi gereken bir başka nokta ise çocukların kişisel verilerinin kullanılmasıdır. Çocuklar özellikle çevrimiçi ortamlarda daha duyarlı olabilir ve daha kolay etkilenebilir. Örneğin, çevrimiçi oyunlarda profilleme, algoritmanın daha fazla kişiselleştirilmiş reklam sunmasının yanı sıra, oyunda para harcamasının daha olası olduğunu düşündüğü oyuncuları hedeflemesi için de kullanılabilir. GDPR madde 22’de işlemenin çocuklar ve yetişkinler ile ilgili olup olmadığı konusunda ayrım yapmıyor. Ancak yine de çocuklar bu tür pazarlama çalışmalarından kolayca etkilenebileceği için, veri sorumlusu, çocuklar için uygun önlemleri almalı ve bu önemlerin çocukların haklarını, özgürlüklerini ve meşru çıkarlarını korumada etkili olduğundan emin olmalıdır.

Sonuç olarak, yapay zekâ ve makine öğrenimi gibi sistemlere dayanarak yapılan profilleme ve otomatik karar verme, birey hakkında önemli sonuçlar doğurabilir. Bu teknolojiyle bağlantılı olarak toplanan verilerin, kişilerin rızası alınarak toplanması ya da yasal bir zemine oturtulması gerekir. Akabinde kullanılacak olan bu verilerin toplandıkları amaçla bağlantılı olarak kullanılması da önemlidir. Sistemin aniden alışılmadık kararlar almaya başlaması halinde ne gibi yol haritaları izleneceği de dâhil olmak üzere, veri sorumlusu gereken önlemleri almalı ve ilgili kişilerin hak ve özgürlüklerini de gözetmelidir.

Ayrıca bakınız:

Yapay Zekâ, Veri Güvenliği ve GDPR

Akıllı Güvenlik Sistemleri ve Barındırdığı Riskler

Akıllı Güvenlik Sistemleri ve Barındırdığı Riskler

Evimizde kullandığımız pek çok cihaz yeni teknolojik özelliklerle donatılmış durumda. Ev güvenlik sistemleri de bunlardan biri. Kameralar, kilitler, hareketli dedektörler gibi akıllı telefonlardan veya internet üzerinden erişilebilen cihazlarla ev güvenliğimizi sağlamaya çalışıyoruz.

Ancak hayatımızın vazgeçilmez birer unsuru olmaya başlayan bu cihazlar, ailemiz ve evimiz için tahmin edildiği kadar güvenli olmayabilir.  Hewlett Packard (HP) uygulama güvenlik test ekibi Fortify’daki araştırmacılar IoT ile bağlantılı en iyi 10 ev güvenlik sistemini test etmiş ve hepsinde pek çok açık tespit etmiştir. Araştırma sonucu ortaya konan rapora göre, ev sahibi evi izleyen tek kişi olmayabilir.

Çünkü sistemler ya zayıf parola politikaları ile yönetiliyor ya da hiç parolaya sahip değil. Ayrıca sistemlerin çoğunda ikili kimlik doğrulama seçeneği bulunmuyor. Araştırma, bulut sistemlerinde toplanan verilerin de savunmasız olduğunu ortaya koyuyor. Bu da başta hesap kimlik bilgileriniz olmak üzere pek çok verinizin siber saldırganlarca ele geçirilebileceği anlamına geliyor. Örneğin, bir hacker evde olup olmadığınızı öğrenebilir ya da evdeyseniz uzaktan evinizin en mahrem alanını bile gözetleyebilir.

Wi-fi üzerinden çalışan kablosuz güvenlik kameraları açısından uygun önlemler alınmazsa bunlar da kullanıcılar için ek riskler oluşturabilir. Wi-fi ile iletişimin doğası gereği bir hacker evinizdeki bir kameraya bağlanabilir ve pek çok verinize erişebilir.

Güvenliğimizi sağladığını düşündüğümüz akıllı ev sistemler karşısında hackerların yaratabileceği tehditleri anlayabilmek için şu soruları yakından incelemek gerekiyor:

  • Güvenlik sistemimizde hangi kritik verileri bulunduruyoruz?
  • Güvenlik sistemimiz hangi işlemleri gerçekleştiriyor?

Özellikle video kayıtlarıyla olayların ve eylemlerin tarihsel günlüğünü tutmaya yarayan veriler, kritik verilerimizi oluşturur. Bu verilerin başkalarının eline geçmesi durumunda önemli sorunlar oluşacağı aşikardır. Örneğin, kötü amaçlı kişiler hırsızlık için kapı kilit sistemlerinin kontrolünü ele geçirebilirler, bina içine fark edilmeden girmek için video kayıtlarını kapatabilirler ya da suça delil oluşturabilecek kayıtları silebilirler.

Özellikle işletim sistemlerinin ve yazılımların güncel olmaması da güvenlik bakımından risk oluşturan bir husustur. Eski yazılımlar hackerlar tarafından kolayca istismar edilebilir. Bu saldırılar bakımından veri sorumlusunun(şirketin) veri güvenliğine ilişkin birtakım kanuni yükümlülükleri vardır. KVKK md.12’ye göre, veri sorumlusu, kişisel verilere hukuka aykırı olarak erişilmesini ve işlenmesini önleme ve kişisel verilerin muhafazasını sağlama amacıyla uygun güvenlik düzeyini temin etmeye yönelik gerekli her türlü teknik ve idari tedbirleri almak zorundadır.

Akıllı sistemler hakkında değinilmesi gereken diğer bir konu da, tutulan kayıtların nerede saklandığı ve bunun güvenliğinin nasıl sağlandığıdır. Evinizin içinde, garajınızda veya aracınızdaki akıllı sistemlerden elde edilen verilerinizin güvenlik şirketlerince başka yerlere aktarılmadığından da emin olmak isteriz. Akıllı sistemlerce kaydedilen kişisel verilerinizin güvenliği için bunların başka amaçlarla kullanılmaması da gerekir. Bu yüzden, güvenlik amaçlı bu verileri işleyen bir şirket, faaliyetlerini de bu doğrultuda belirlemelidir. KVKK md.10’a bakıldığında, kişisel verilerin hangi amaçla işleneceği, işlenen kişisel verilerin kimlere ve hangi amaçla aktarılabileceği, kişisel veri toplamanın yöntemi ve hukuki sebebi konusunda veri sorumlusunun kişilere bilgi verme yükümlülüğü vardır. Yine md.11 de bu konuda kişilerin haklarından bahseder. Herkes, veri sorumlusuna (burada verileri işleyen şirket) başvurarak kendisiyle ilgili;

  • Kişisel veri işlenip işlenmediğini öğrenme,
  • Kişisel verileri işlenmişse buna ilişkin bilgi talep etme,
  • Kişisel verilerin işlenme amacını ve bunların amacına uygun kullanılıp kullanılmadığını öğrenme,
  • Yurt içinde veya yurt dışında kişisel verilerin aktarıldığı üçüncü kişileri bilme,
  • Kişisel verilerin eksik veya yanlış olması halinde bunların düzeltilmesini isteme ve
  • Kişisel verilerin kanuna aykırı olarak işlenmesi sebebiyle zarara uğranması halinde zararın giderilmesini talep etme hakkına sahiptir.

Bununla birlikte barındırdığı riskler konusunda kullanıcılarda farkındalık oluşturmaya çalışan teknoloji şirketleri de mevcut. Bosch, Genetec ve SecureXperts siber saldırılara karşı dayanıklı video sistemleri tasarlamak ve geliştirmek için bir iş birliği geliştirdi. Ancak bu farkındalığın gerçekten yaratılabilmesi için sektördeki pek çok üretici, kişisel verilerin işlenmesi ve siber güvenlik konularında ilerleme kat etmelidir. Daha da önemlisi, tüketiciler bu hususları talep eder hale gelmelidir. Bunun sonucunda sektör açısından beklenen güvenlik seviyesine çıkılması, daha iyi hizmet sunulmasının da önünü açacaktır.

Ayrıca bakınız:

Akıllı Güvenlik Sistemleri ve Barındırdığı Riskler


Alıntı için :

Selin Cetin
"Akıllı Güvenlik Sistemleri ve Barındırdığı Riskler"
Hukuk & Robotik, Perşembe Ocak 25th, 2018
https://robotic.legal/intelligent-security-systems-and-risks/- 24/06/2021

 

Robotlar, Güvenlik ve Mahremiyet

Robotlar, Güvenlik ve Mahremiyet

Robotlar hayatımızın büyük bir bölümünde yer almaya ve hayatımıza artan bir hızla etki etmeye başladı. Evinizde kullandığınız temizlik robotundan tutun endüstriyel üretim, savunma sanayii ve diğer birçok alanda sayıları her geçen gün artıyor. Örneğin, Amazon’un yirmi ana dağıtım deposunda toplam 45.000 robot çalışıyor. Geçen yıl bu rakam 30.000, ondan önceki yıl 15.000 civarındaydı. Yani Amazon her yıl kadrosuna 15.000 robot katıyor.1Günümüzde bu robotlar kendi kendini programlayabiliyor, çevresini algılayıp kararlar alabiliyor. Bundan 100 yıl kadar öncesini düşündüğümüzde, günümüzdeki bu teknolojiler akla getirilmesi imkansız fikirler olarak görülürdü. Ancak teknoloji inanılmaz bir hızla ilerliyor. Ray Kurzweil’e göre 2045 yılında üretilecek bir yapay zeka, bugünkü insan nüfusunun toplam zekasından 1 milyar kat daha güçlü olacak. 2

Yapay zekanın ve robotların kullanımı, kuşkusuz işgücü, zaman ve masraf bakımından bize birçok fayda sağlayacak. Ancak getireceği faydanın yanında birtakım sorunlar doğurması da söz konusu olabilir. Gelişmiş sensörler ile gözlem yeteneğine sahip, her türlü şekil ve boyuttaki robotlar, özel hayatın gizliliği ve kişisel verilerin güvenliği konuları üzerinde dikkatle durmayı gerektiriyor. Güvenlik ve gözlem amaçlı olarak robotlar pek çok alanda kullanıyor. Örneğin, insansız hava araçları havada fark edilmeden günlerce kalabiliyor ve geniş bir coğrafyayı tarayabiliyor. Bu bakımdan ordu ve kolluk güçleri bu teknolojiyi kullanmaya başlamış durumda. Bunun yanında hükümetler, gözlem izlenimi yaratarak istenmeyen davranışları önlemek için sosyal robotları kullanma eğiliminde. Bilgisayar korsanları açısından ise robotik teknolojilerin saldırıya açık alanları, özel yaşama ilişkin bilgilere ulaşabilmek için yeni bir fırsat sunuyor.

Sosyal hayatta kullanılan bu robotlar, ticari işletmeler için veri toplama bakımından harika bir imkan oluşturuyor. Japonya’da kullanılan alışveriş asistanlarını düşünün. 3 Bu makineler müşterileri tanımlayıp onlara erişir ve ürünlere yönelik rehberlik etmeye çalışır. Ancak sıradan mağaza çalışanlarının aksine robotlar işlemin her alanını kaydedebilir ve işleyebilir. Yüz tanıma teknolojisi sayesinde yeniden kolayca tanımlayabilir. Bu müşteri verileri, hem kayıp önleme hem de pazarlama araştırmalarında kullanılabilmektedir. 4

Bunun dışında ev robotlarını düşünelim. Standart ve kızılötesi kameralarla, koku algılayıcılarla, GPS ve diğer sensörlerle donatılabilirler. Bu robotlar, aslında gizlilikle ilgili birçok farklı tehlikeyi de beraberinde getiriyor. Örneğin, evin içinde internete bağlanabilen bir robotun kullanılması, evin iç mekanının görüntülenmesinin yolunu açabilir, tek başına kaldığımız özel alanlara girerek mahremiyeti azaltabilirler. Harika “hafızaları” sayesinde elde ettikleri bilgilerimizi depolayabilirler ve daha da kötüsü bunları başkalarıyla paylaşabilirler.

Tamara Denning, Tadayashi Kohno ve Washington Üniversitesi’ndeki meslektaşları tarafından yapılan bir çalışma, piyasada bulunan ev robotlarının güvensiz olduğunu ve bilgisayar korsanları tarafından ele geçirilebildiğini gösteriyor.5 Washington Üniversitesi’ndeki araştırmacılar, her biri kameralarla donatılmış, kablosuz ağ oluşturma özelliğine sahip üç robota, WowWee Rovio, Erector Spykee ve WowWee RobotSapien V2’ye baktı. Sonuç, korsanlar, örneğin Rovio veya Spykee’nin veri akışlarını belirleyebilir ve yakındaki konuşmaları dinleyebilir veya robotu çalıştırabilirler.6

Facebook kurucusu Zuckerberg’nin geçtiğimiz yıl laptop kamerasını ve mikrofon girişini bantlaması gündeme gelmişti. Web kameralara karşı güvensizlik bu noktada iken; kaydetme, aktarma, hareket edebilme ve kontrol edilebilme özellikleri sebebiyle ev robotları, güvenlik açığı duygusunu daha da artırmaktadır. Bunun sonucunda hukuki ve teknik sorunlar oluşabileceği gibi etik sorunlarla da karşılaşmamız muhtemel. Örneğin, antropomorfik özelliklere sahip sosyal robotlara karşı insanlar paylaşımda bulunmaya daha meyilli olabilecektir. Bu da kişilerle ilgili bilgi toplayabilmek adına kötüye kullanımın önünü açabilir.

Hukuksal açıdan ise; örneğin, eşinin sadakatsizliğini ortaya çıkarmak isteyen bir eş robotun verilerine başvurabilir mi? Ya da hükümetler devlet güvenliği, gizliliği gereği evin içini izleyebilir mi? Gibi sorular mahremiyet ve güvenlik ile ilgili sorunlara işaret etmektedir. Bu alanla ilgili olarak, robotik teknolojiye uygulanabilecek mevzuat ise şu şekildedir:

Avrupa Birliği Temel Haklar Şartı’nın 8. Maddesi,

2016/679/EU sayılı Tüzük,

95/46/EC sayılı Direktif,

2002/58/EC sayılı Direktif,

2009/136/EC sayılı Direktif,

45/2001 sayılı Tüzük

Yukarıda aktarılan mevzuat kapsamında, veri işlemenin süjesi olan kişinin sürece dair bütün aşama ve olaylarla alakalı olarak önceden bilgilendirilmesi, bir verinin süjesinin veri işleme sürecinin kontrolüne sahip olması ve bu sürece itiraz edebilmesinin her zaman mümkün olması şeklinde düzenlemeler öngörülüyor. Robotların veri kullanımı söz konusu olduğunda da bu düzenlemelerin aynı şekilde geçerli olacağı söylenebilir.7

Sonuç olarak, robotların sosyal hayatımızın vazgeçilmez bir parçası olması uzak bir gelecek değil. Durum gösteriyor ki, mahremiyet ve güvenlik ile ilgili hukuki düzenlemeler yapılmasına ihtiyaç duyulacaktır. Bu düzenlemeler gerekli teknik standartlar oluşturulup,  robotların sosyal boyutu da dikkate alınarak yapılmalıdır.

Selin Çetin

Ayrıca bakınız: https://siberbulten.com/author/selin-cetin/


Alıntı için :

Selin Cetin
"Robotlar, Güvenlik ve Mahremiyet"
Hukuk & Robotik, Cuma Kasım 10th, 2017
https://robotic.legal/robotlar-guvenlik-mahremiyet/- 24/06/2021