Veri koruma ve veri mahremiyetinin bu kadar yükselişte olmasına şaşmamak gerek. Bu ise büyük verideki büyümenin ve kontrol edilemeyen algoritmalarla ilişkilendirilebilecek olumsuz sonuçları ile sosyal medya kullanımından kaynaklanan geniş veri havuzunun beslenmesinden kaynaklanıyor.
Konuyla ilgili şöyle bir perspektif sunayım: Teorik olarak her internet kullanıcısının Facebook güncellemeleri veya Facebook’ta yaptığı arkadaş seçimi veya beğendiği firma gibi pasif Facebook aktiviteleri sayesinde verdiği verilerle potansiyel bir suçlu veya kredi riskinin zayıf şeklinde sınıflandırılması mümkün. Bu, Facebook’ta paylaştığınız bilgilerin zaten bu şekilde kullanıldığı anlamına gelmiyor ama Facebook’taki veriler göz önüne alınarak bu şekilde mükemmele yakın algoritmalar geliştirmek mümkün.
Bu sene Mart ayında AB Konseyi ve Venedik Kulübü’nün (AB üye devletleri ve AB kurumlarının BT hizmetleri alanındaki gayrıresmî iletişim derneği) düzenlediği bir konferansta konuşmacıydım. Oradaki davetlilere de söyledim: Algoritma, kılıcın icadından sonra bugüne kadar üretilmiş en güçlü sosyal kontrol aracıdır. Kuşkusuz, AB kurumlarının veri korumayla ilgili yeni bir düzenleme yapması için biraz kışkırtıcı olmak istedim, bununla birlikte bu iddiamın arkasında olmaya devam edeceğim.
Algoritmalar nedensellik değil korelasyon üzerine kurulu
Algoritmaların taşıdığı potansiyeli yeni yeni keşfetmeye başlıyoruz. Algoritmaları yalnızca suç işlemesi muhtemel insanları değil aynı zamanda hangi türden suçlarının işlenebileceğini tahmin etmekte de kullanabiliriz. Algoritmalarla oluşturabileceğimiz bilgi hemen hemen sınırsız ve aslında şunu da söylemek gereksiz: Bilgi, güçtür. Dolayısıyla, sınırsız güç de çok tehlikeli bir şey.
Diğer bir konu ise algoritmaların oluşturduğu bilginin yapısı. Algoritmalar nedensellik değil korelasyon üzerine kuruludur. Yani, algoritma bir insanın muhtemel bir suçlu olduğunu bulabilir, fakat bu insanın neden potansiyel bir suçlu olduğunu söyleyemez. Algoritmalar bize bir şeyler yapmamız için cesaret verir, karar almamıza yardımcı olur ve bütün bunları neden yaptığımızı sorgulamadan değer yargısı oluşturmamıza sebebiyet verir. Şöyle bir örnek verelim: Suç işlememiş bir insanın sokak ortasında hakarete uğrayarak sırf bir algoritma böyle bir karar verdiği cezaevine atılıyor. Tabii, bu uçta bir örnek oldu fakat teknoloji ve verinin bizden böylesini istediği bir dönemde yaşıyoruz . Elbette, algoritmalarla “masum” insanları hapse atmak ilk adım olmayabilir fakat kıt sağlık hizmetlerinin nasıl tahsis edileceğine karar verirken algoritmalar işe yarayabilir (Benzer araçlar özel sağlık kaynaklarının nasıl dağıtılacağı konusunda hali hazırda kullanılıyor ve benim de yaşadığım İngiltere gibi birçok ülkede devlet ve özel sektör arasındaki sınırlar kalkmış durumda).
Geleneksel veri korumanın üç prensibi
Veri koruma ve very mahremiyeti – ya da, diğer şekilde söylersek, algoritmaların tasarım ve kullanımının düzenlenmesi- bu nedenle çok önemli bir mesele olarak karşımıza çıkıyor. Buradaki sorun, konu algoritmalar olunca bugüne kadar belirlediğimiz kural ve uygulamaların herhangi bir kuralla ilişkisinin olmaması. Brüksel’deki yetkililere de söylediğim gibi, algoritmalar bu kuralları çöpe atıyor. Geleneksel veri koruma şu üç prensibe dayanıyor:
Birinci kural, örgütlerin sizinle ilgili sakladığı dosyalara erişmek isteyebilirsiniz ki, bu dosyadaki bilgileri görüp bu bilgilerin geçerliliğine ileride itiraz edebilirsiniz. Fakat, günümüz dijital dünyasında bunu yapabilmek imkânsız. Çünkü, “dosya”nız öyle geniş ve dağıtık (distributed) halde ki, her durumda geçersiz bilgiler içermesi muhtemel.
Bu da bizi, ikinci prensibe yönlendiriyor: Verilerinizin ne şekilde kullanılacağına nasıl izin veriyorsunuz? Az önce de belirttiğim gibi, algoritmalar verilerin gerçek amacı dışında nasıl kullanılacağı konusunda tam bir ustalık örneği sergiliyor. Bunun için şöyle bir uygulamalı örnek verebilirim: Bir futbol maçına gittiğinizi düşünelim ve o kalabalığın içinde kimin size görebileceğini kontrol etmek istiyorsunuz. Tabii ki, bunu yapamazsınız.
Üçüncü prensip ise geleneksel very koruma ve mahremiyetin kullanıcının isimsiz (anonymous) şekilde tanımlanması. Aslında AB seviyesindeki mevzuat tartışması da bu hakkın tasarımına dayanıyor. Fakat, bu noktadaki sorun, algoritmaların kullanıcı verilerine yeniden erişim sağlayabilmesiden kaynaklanıyor. Biz kullanıcılar olarak o kadar çok dijital ipuçları üretiyoruz ki, bu ipuçlarının her biri, çapraz şekilde birbiriyle eşleştirilip daha önceden isimsiz verilerle bir araya getiriliyor ve kimliğimize ilişkin bir haritalama gerçekleştirilebiliyor.
Veri korumada çözüm: Şeffaflık
Yukarıdaki durum hükümet ve düzenleyici kurumlar için büyük bir probleme işaret ediyor. Muazzam güçlü bir şeyler meydana getirdik ki, firma ve örgütler bunu bireylere karşı kullanabiliyor – fakat, bireylerin bu araçları hükümet ve kurumlara karşı kullanabilecekleri dengeli bir yetenekleri bulunmuyor. Ayrıca bu araçları etkili şekilde takip veya kontrol etme imkânımız da yok. Aslında biz de bununla ilgili yeni yöntemler araştırırken – tam da AB’nin uygulayacağı isimsizlik yolundan gitmesi gibi- elde ettiğimiz sonuçların bizi bir yere götürmeyeceğini gördük.
Bu konuda cevabın ne olduğunu bilmiyorum. Buna rağmen, cevapların nereden bulunabileceğine dair elimde bazı ipuçları mevcut. Örneğin, günümüz sosyal dijital dünyasından kaynaklanan hastalıklarına çare olarak şeffaflığın genellikle çok etkili bir yöntem olduğunu söyleyebiliriz. Bu durumda kişilerin bir şeyler yapmasını engellemezsiniz. Sadece kişilere sakladıkları şeyin imkânsız ve mevcut mevzuata dayanarak hangi davranışların kabul edilebilir nitelikte olduğunu tanımlarsınız.
Bununla birlikte, bu konu başka bir şeyi daha beraberinde getiriyor: Hükümetlerin bu soruna daha da yoğunlaşması umulurken kurumların da algoritmalar dünyasının sunduğu fırsat ve tehditlerin farkında olmaları gerekiyor.
Yorumlar