TEKNOLOJİ

DigitalAge | 17.09.2019 - 13:52

Derin sahteler herkesi kandırmaya geliyor

Deepfake adı verilen yeni teknik, yapay zeka ve makine öğrenimi yardımıyla videodaki kişileri başka kişilerle değiştirebiliyor. Bunun ses için de uygulanabileceği belirtilirken, bu tekniği yenmenin yolları üzerinde çalışılıyor.

Bugüne dek siber güvenlik denildiğinde verilere izinsiz erişim akla geliyordu. Ancak nisanda Barack Obama’nın internette dolaşan videosu, deepfake adı verilen tekniğin insanları etkilemedeki başarısını göz önüne koydu. Obama, gerçekte asla yapmadığı bir konuşmayı, bilgisayarda yazılan bir metinden okuyordu. Obama videolarıyla ve fotoğraflarıyla eğitilen sistem, dudak hareketlerini ve videoyu yürürlüğe sokan Buzzfeed ekibinin kaydettiği sesi de Obama’nınkine uygulamıştı. Bu işe güvenlik çerçevesinden bakarsk, siber saldırıların anatomisi ardındaki motivasyonun değiştiğini söyleyebiliriz. Bilgi çalmak ya da onu rehin alarak fidye gibi taleplerde bulunmak yerine, yeni hacker dalgası verileri yerinde bırakırken, onları değiştirmeyi amaçlıyor.

Sonatype’ın bir çalışması, önümüzdeki sene kurumların yarısının hileli veri ya da yazılımdan zarar göreceğini öngörüyor. Kurumların her dijital varlık için sahiplik zincirini düzenlemesi ve koruması gerekiyor ki, veri değişikliklerini tespit ve önleme mümkün olsun.

Deepfake videoları yapanların başlıca amaçları arasında finansal kazanç geliyor. Bir rakip şirketin verileriyle oynanarak örneğin halka açık bir şirketin kazancını saptırarak, müşteri, iş ortağı, yatırımcı ve devletle ilişkilerini bozabilir. Bir diğer motivasyon, algı yönetimi: Değiştirilmiş videolar ve ses kayıtları son derece tehlikeli birer propaganda silahına dönüşebilir. Verilerle oynanmasının bireyler üzerinde de ciddi etkileri olacaktır, özellikle medikal dünya için saldırganların ilaçların kullanım sıklığı, prospektüsü ya da sakıncalı olacağı durumları değiştirdiğini bir düşünsenize…

İlk büyük dolandırıcılık: Gitti 10 milyon dolar…

Deepfake saldırıları, ilk bakıştakinden de daha etkili olduklarını göstermekte gecikmedi. Bir olayda, telefonda bir yöneticiyi taklit eden sistem sebebiyle saldırganlara 10 milyon dolar gönderildi. Bu sebeple güvenlik sistemleri kurup yönetmek deepfake saldırılarına karşı yeterli değil.

Dijital varlıkları korumak için öncelikle yazılım geliştiriciler her ürün, süreç ve işlemi derinlemesine inceleyerek nasıl daha fazla güven katabileceklerini düşünmeliler. Artık verinin yedeklendiği, kopyalandığı ya da şifrelendiği şekilde, verinin güvenilirliğinin ve gerçekliğinin sürekli doğrulanması gerekiyor. Bu özellikle yapay zeka ve makine öğrenimi kullanan uygulamalar, simülasyonlar ve kritik karar alma uygulamaları için geçerli.

Güvenlik camiası harekete geçti

ProofMode ve Truepic gibi girişimler fotoğrafları filigran ile koruyarak gerçekliklerinin doğrulanabileceği bir teknoloji üzerinde çalışıyorlar. Hatta Truepic, bu özelliği akıllı telefon donanımlarına taşıyabilmek için Qualcomm ile çalışıyor. Bazı girişimler ise sahte medyanın nasıl üretildiğini anlamak için yapay zeka kullanıyor. Videolarda, örneğin kişinin ağzının etrafındaki piksellerdeki değişim, gölgeler ya da yüz açılarından sahte görüntüyü tespit etmeye çalışıyor. Güvenlik şirketi Symantec ise video ve ses dosyalarının kökenini çıkartmanın yollarını araştırıyor. Tıpkı sahte haberlerde olduğu gibi bir doğrulama mekanizması bizleri önemli tehditlerden koruyabilir. Şirket ayrıca üç boyutlu gözlüklerin yüz tanımayı aşabilme ihtimalini değerlendiriyor. Böylece yazılımlar kişileri doğru tanımlayamayarak bu içerikleri oluşturamayabilir.

Aytun Çelebi, Gazeteci