İnternette neleri beğendiğimizden tutun, bir suçu teşvik etme ya da suça maruz kalma olasılığımızla ilgili yargılara kadar her şeyi belirleyen algoritmalar insanlar arasındaki çeşitliliği göz ardı eden veritabanlarına dayanıyor.
Örneğin, internette herhangi bir arama motorunda “eller” ya da “bebekler” kelimelerini aratın. Görsel arama sonuçlarında çoğunlukla beyaz insanları göreceksiniz. Grafik tasarımcısı Johanna Burai, Google aramalarında karşılaştığı sonuçların ağırlık olarak “beyaz” olması üzerine, “World White Web Project” adlı internet sitesini kurdu. Sitede içerik üreticilerine “alternatif” el fotoğrafları sunularak, dengenin sağlanması amaçlandı.
Dev arama motoru Google, eleştiriler karşısında görsel arama sonuçlarının kendi “değerleriyle” ilgisi olmadığını savunuyor. Google yetkilileri, arama sonuçlarının “internetteki içeriklerde ne tür görsellerin daha çok kullanıldığı ve internette bu görsellerin nasıl tanımlandıklarını” yansıttığını belirtiyor.
Öte yandan, Johanna Burai farkındalığın giderek arttığını söylüyor. Burai, “İnsanlar sorunu görmeye başladılar. Projeye ilk başladığımda, insanlar şok içindeydi” diyor.
Algoritmalarda adaletin sağlanması amacıyla kurulan Algorithmic Justice League (AJL) de, bu konudaki farkındalığın en iyi örneklerinden.
“Beyaz maske takmak zorunda kalıyordum”
Bu inisiyatifin kurucusu olan Joy Buolamwini, ABD’nin tanınmış üniversitelerinden Massachusetts Institute of Technology’de (MIT) doktora öğrencisi. Bir yüz tanıma programı ten renginden dolayı onu tanıyamadığı için, bu projeyi başlatmış. Boulamwini, yapay zeka yüzünü tanımadığı için, bir noktada beyaz maske kullanmaya başlamış. Bundan 5 yıl önce de, teni daha açık olan oda arkadaşından yardım istiyormuş:
“Çok karışık hisler içindeydim. Hem bu sorunun beş yıldır halen devam ediyor olması karşısında kızıyordum, hem de beyaz maskenin bu kadar işe yaraması bana eğlenceli geliyordu.”
Örneğin bir tıp araştırmacısı, AJL’ye danışarak cilt kanserini tanıyan bir algoritmanın siyahlarda çalışıp çalışmadığını görmek istemiş. Aşırı kilo ya da obezitesi olanlar ile yaşlılara yönelik yapay zeka teknolojilerinin nasıl çalıştığı da, Buolamwini için merak konusu.
Google: Teknik çalışanların sadece yüzde 19’u kadın, yüzde 1’i siyah
Boulamwini’ye göre, algoritmalardaki sorunun bir kaynağı da, teknoloji endüstrisinde çalışanlar arasındaki çeşitlilik eksikliği. Dev teknoloji şirketlerinin her yıl yayınladığı “çeşitlilik raporları” da buna işaret ediyor:
Google’ın Ocak 2016’da paylaşılan son raporunda, şirketteki teknik departmanlarda çalışanların sadece yüzde 19’unun kadın olduğu, yüzde 1’inin de siyahlardan oluştuğu görülüyor.
Microsoft’un Eylül 2016’daki raporuna göre, bu çalışanların yüzde 17.5’i kadın ve yüzde 2.7’si siyah ya da Afrikalı Amerikalı.
Facebook’un Haziran 2016’da yayınladığı raporda ise, ABD departmanının yüzde 17’sinin kadın ve yüzde 1’inin de siyahlardan oluştuğu belirtilmiş.
100 ülkede çekilen 6 bin selfie (özçekim) üzerinden geçen sene algoritmaların seçtiği güzellik yarışmasında kazanan 44 kişiden sadece birisi beyaz değildi ve az sayıda Asyalı vardı.
Yapay zeka suça eğilimde siyahları öne koyuyor
Bir araştırmaya göre, ABD’de suçluların tespit edilmesi için kullanılan yapay zeka ise, beyazlara oranla siyahların suçlarla bağlantılı olması riskini daha fazla tutuyor. Uzmanlara göre, dünya değişirken karar mekanizmalarındaki taraflılık ve önyargılar, ileride mutlak doğru olarak görülecek ve bu durumun farkında bile olmayacağız.
Uzmanlara göre bu sorunu çözmek için üç temel adım atılabilir. Bunlar; algoritmaları ‘eğitmek’ için daha çeşitli veri tabanları üretmek, yazılım ve program satıcıları arasında bu alışkanlığı yaygınlaştırmak, algoritmaları, karar verme süreçlerindeki önyargılarla ilgili kullanıcıları bilgilendirecek şekilde kurmak.
Eğer bu algoritmalar içselleştirilirse, gelecekte hayatımızdaki yeri giderek genişleyecek olan robotlar da aynı önyargılarla geliştirilmiş olacak.
Kaynak: BBC Türkçe
Yorumlar