Skip to main content

“Yapay zekânın etik sınırları” gibi bir başlık atıyorsam anlayın ki, tehlikeli sulardayız. Sınırlar geçildiğinde neler olabileceğini Cambridge Analytica – Facebook olayında izliyoruz maalesef.

Yapay zekânın etik sınırları

Uzun zamandır “Machine Learning”, “AI” gibi kavramlar konuşuyorduk, bu alanda birçok girişim ortaya çıkıyor ve yatırımlar alıyordu ama konunun tüm topluma yayılması Facebook skandalı ile gerçekleşti.

“Yapay zekânın etik sınırları” gibi bir başlık atıyorsam anlayın ki, tehlikeli sulardayız. Sınırlar geçildiğinde neler olabileceğini Cambridge Analytica – Facebook olayında izliyoruz maalesef. Buradaki konuyu doğru anlamak önemli. Özet olarak Facebook toplamış olduğu verilerin sadece bir bölümünü uygulama geliştiricileri ile paylaşıyordu. Kullanıcılar ise aslında verilerinin Facebook ve geliştiriciler ile paylaşıldığını biliyor ve onaylıyordu. Farkında olunmayan nokta, bu verilerin nasıl kullanılabileceği, kimse hayal etmemişti…

Kontak bilgileriniz, fotoğraflarınız, hangi paylaşımları beğendiğiniz gibi bilgileri herhangi bir yer ile paylaştığınızda aklınıza bu verileri kullanarak politik tercihlerin anlaşılabileceği ya da dinî inançlara ne kadar sıkı bağlı olunduğuna dair çok isabetli tahminler yapılabileceği gelmiyor. Bu tahminlerin referans alınarak birebir size iletişim yapılabileceğinin ve dolayısıyla manipüle edilebileceğinizin ise hiç farkında değilsiniz. Milliyetçi bir kişinin önüne sosyal medyada sürekli milliyetçi mesajlar veren bir politikacı profili çıkıyorken, liberal kişiye ise aynı politikacı çok farklı sözler veriyor olabilir. Bunu basitçe detaylı bir sınıflandırma ve her kitleye farklı bir iletişim olarak da yorumlayabilirsiniz  ama her kişinin en hassas noktasını anlayıp buna göre mesaj vermek bence etik sınırların geçilmesi demek.

Bu hedefli iletişimin en ufak bir etik kaygı olmadan kötü niyetli yapılması da mümkün. Sadece politika değil, her sektörde rakipleri karalayıcı pazarlama kampanyaları yapmak, yalan haberleri inanacak kişilere, inanacakları şekilde iletmek maalesef mümkün. Veri ve yapay zekâ ile yapılabileceklerin henüz çok başındayız. Facebook ile konu sadece trend oldu. Yapay zekânın yapabileceklerinin tam farkında olmayan girişimciler ve yatırımcılarda da şu an ışıklar yandı. Önümüzdeki birkaç yıl içinde AI startup’larının hızla artacağını göreceğiz. Veri toplama metotları çeşitlenecek ve bu verileri anlamlandıran yapay zekâ hayal bile etmediğimiz bir noktaya gelecek.

Etik sınır nerede, bu sınıra kim karar verecek?

Sürekli etik sınır diyorken somut bir örnek manzarayı netleştirecektir. Milyonların oynadığı bir bulmaca oyununda 142’nci seviyeye gelmişsiniz ve ilerleyemiyorsunuz. 8’inci denemede sinirle oyunu kapadınız ve telefonu da bir kenara koydunuz. Arkada bilin ki, AI çalışıyor. Sizin oyunu kapamanız sonrasında 8’inci kez geçememiş olmanız sizde bir meydan okuma duygusu mu uyandırıyor ve 2 saat sonra dönüp 9’uncu kez deneyeceksiniz yoksa oyuna bir daha geri dönmemek üzere silme ihtimaliniz mi arttı? AI, oyundan kopmaya başladığınızı anlıyorsa 9’uncu denemenizde size çok daha kolay bir bulmaca ya da kolay geçmenizi sağlayacak bir hediye vererek mutluluğunuzu garanti edecektir.

Bu örnek yapay zekânın çok yerinde, etik ve akılcı kullanımı. Diğer taraftan oyuncunun profilini analiz edip, rakip hangi oyunları oynadığını anlayan ve o oyunları her bir oyuncuya farklı söylemlerle kötüleyen bir yapay zekâyı maalesef çirkin rekabet amaçlı da kullanmak mümkün.

Oyun sektörü belki de yapay zekânın kötü niyetlerle kullanılacağı son alan fakat otomotivden gıdaya birçok endüstride toplum manipüle edilerek yönlendirilebilir, haksız rekabet yaratılabilir ve politika gibi alanlarda dönüşü çok zor olan sonuçlar doğurabilir.

Etik sınır nerede, bu sınıra kim karar verecek ve geliştiricilerin sağ duyusuna mı bırakmak doğru, regülasyon olursa nasıl ve kim tarafından yapılacak gibi soruların önümüzdeki dönemde gündemi işgal edeceğine emin olabilirsiniz.