Skip to main content

Avrupa Polis Teşkilatı (Europol), Birleşmiş Milletler Bölgelerarası Suç ve Adalet Araştırma Enstitüsü (UNICRI) ve Trend Micro, yapay zeka teknolojisinin siber saldırganlar tarafından Deepfake ve başka pek çok zararlı yazılımda nasıl kullanıldığını inceledi.

Europol, Birleşmiş Milletler Bölgelerarası Suç ve Adalet Araştırma Enstitüsü (UNICRI) ve Trend Micro tarafından ortaklaşa hazırlanan raporda yapay zekanın (AI) siber saldırganlar tarafından nasıl kullanıldığı ve gelecekte nasıl kullanılabilecekleri tüm detaylarıyla incelendi. Rapor aynı zamanda kolluk kuvvetleri, hükümet yetkilileri ve kriminal konularda karar alan ve uygulayan diğer tüm kuruluşlar için risklerin nasıl azaltılacağına dair öneriler sunuyor.

Rapora göre siber suçluların yapay zeka teknolojisinden hem bir saldırı vektörü hem de bir saldırı yüzeyi olarak yararlanıyor. Şu an yapay zekanın en çok bilinen saldırı kullanımı deepfake videolar. Siber saldırganlar gelişmiş araç kitleri kullanarak Deepfake adı verilen sahte görüntüler ve videolar oluşturuyor. Pek çok ünlü ve siyasinin yüzlerinin kullanıldığı Deepfake videolar dezenformasyon kampanyaları, dolandırıcılık ve internet zorbalığı gibi suç araçları olarak kullanılıyor.

Yapay zekanın kullanıldığı tek saldırı şekli Deepfake değil. Siber suçlular yapay zekayı kullanarak Spotify gibi uygulamalarda gerçek kullanıcı davranışını taklit edebilen araçlar oluşturuyor. Bu sayede daha önceden ele geçirilen hesapların fark edilerek silinmesi önlenmiş oluyor. Ayrıca e-posta filtreleri tarafından yakalanmayan gerçekçi e-posta metinleri oluşturmak için de yapay zekadan faydalanan siber suçlular yapay zeka ile daha hazırladıkları içeriklerle sosyal mühendisliği daha etkili hale getiriyor. Diğer bir yöntemse yapay zeka teknolojisi kullanılarak yüz tanıma sistemleri gibi yine yapay zeka motorlarına yapılan saldırılardır. Siber saldırganlar yapay zeka motorlarını bozarak korumaları atlatmanın yollarını buluyor.

Raporda yapay zekanın siber saldırganlar tarafından kullanım alanları kısaca şu şekilde sıralanıyor:

  • Büyük ölçekli ikna ediciliği yüksek sosyal mühendislik saldırıları
  • Saldırıları daha etkili hale getirmek için kötü amaçlı yazılımları belgelendirmek
  • Görüntü tanıma ve ses biyometrisi gibi kimlik doğrulama yöntemlerini atlatmak
  • Akıllı hedef belirleme ve atlatma yoluyla yapılan fidye yazılımı saldırıları
  • Tespit kurallarındaki kör noktaları belirleyerek yapılan veri kirliliği

Raporun sonuç kısmında ise şu tavsiyelere yer veriliyor:

  • Siber güvenlik sektörü ve polisler yapay zeka teknolojisini siber suçlarla mücadele aracı olarak kullanmalı
  • Savunma teknolojisinin gelişimini teşvik etmek, siber suçlulardan hızlı hareket etmek için bu konudaki araştırmalar sürekli olarak yapılmalı
  • Güvenli yapay zeka tasarımı çerçevelerini belirlenmeli ve geliştirilmeli
  • Siber güvenlik sektörünün veya polisin siber suçla ilgili gelişmelere yanıt verme ve onlardan bir adım önde olma yeteneğini engelleyebilecek, siber güvenlik amacıyla yapay zekanın kullanımına ilişkin siyasi söylem azaltılmalı.
  • Kamu-özel sektör ortaklıklarından yararlanılmalı ve multi disipliner uzman grupları oluşturmalı