Sensormatic Blog

Yeni Siber Tehdit: Deepfake Video Saldırıları Nedir? Nasıl Korunulur?

Geçmişi 1997 yılına kadar dayanan Deepfake videoları, adını derin öğrenme teknolojisi (deep learning) ve sahte (fake) kelimeleriden alıyor. Yapay zekâ ile oluşturulan sahte videolar görsel ve işitsel olarak gerçeğine neredeyse bire bir benzerlik gösteriyor. 2017 yılında sosyal medyada paylaşılan ünlülerin yüzlerini değiştirme videoları ile daha fazla kişinin dikkatini çekmeyi başaran Deepfake videoları, siber korsanların da yeni gözdeleri arasında. Oluşturulan sahte videolar aracılığıyla siber saldırganlar sistemlere ya da ağlara sızmak için çabalamaya gerek duymadan, olağan bir sürecin parçası gibi sosyal medya ya da dijital iletişim araçları ile hedefleriyle etkileşime geçerek amaçlarına erişiyor.

Dijital dolandırıcılıkta yeni yöntem: Deepfake videoları

Yapay zekâ ve derin öğrenme gibi işlerin yapılışına katkı sağlayan, hatta siber güvenlik alanında da fayda sağlayan teknolojik çözümler, siber korsanların güvenlik önlemlerini aşmasına yardımcı olarak yıkıcı güvenlik ihlallerinin gerçekleşmesine neden olabiliyor.

İşlerinizi yaparken kullandığınız video konferans uygulamasından bir çağrı geldiğini var sayalım. Çağrının ucunda e-ticaret devi Amazon’un CEO’su Jeff Bezos var. Kulağa inandırıcı gelmiyor değil mi? Zaten bu sahte arama son derece gerçekçi olması için kurgulanmış bir Deepfake videosu.

Koronavirüs salgınıyla video iletişim araçlarına olan talep rekor seviyelere ulaştı. Öte yandan son birkaç yıldır tanınmış kişilere ait son derece gerçekçi ve derin öğrenmeyle hazırlanmış sahte videoların internette dolaşım sayısı ise artmış durumda. Eski ABD Başkanı Barack Obama’nın mevcut ABD başkanı Donald Trump’ı aşağıladığı veya ünlü girişimci Elon Musk’ın yatırımda bulunmadığı bir konuyu öyleymiş gibi anlattığı bir videoya rastlamanız mümkün. Deepfake videolar her ne kadar şaka amaçlı yapılıyor olsa da siber güvenlik alanında risk oluşturmaları göz ardı edilmemeli.

Deepfake video saldırıları ne kadar tehlikeli?

Bir araştırmaya göre 2019 sonu itibariyle internette bulunabilen Deepfake video sayısı 15 bin civarında. İnternetin büyüklüğü ve üretilen içeriğin sayısı göz önünde bulundurulduğunda bu oldukça küçük bir rakam olarak düşünülebilir. Sahte videoların sayısının az olmasının temel sebebi bu videoların yapılabilmesi için güçlü bir donanıma sahip olması gerekliliği.

Ancak teknoloji geliştikçe Deep fake videoları mobil uygulamalarla dahi yapılabilir hale gelecek. Akıllı telefonlarda yer alan yüz değiştirme uygulamaları, buna önemli bir örnek teşkil ediyor.

Deepfake video dolandırıcılığına dair kayıtlar YouTube’da dahi bulunabiliyor

Kayıtlara geçen bir olayda siber korsanlar Deepfake teknolojisi ile CEO’ların seslerini taklit ederek gönderdikleri sesli mesajlar aracılığıyla hesaplarına 243 bin dolar para geçmelerini sağladılar.

Bir başka olayda İsrailli 3 siber korsan, Fransız Dışişleri Bakanı’nı taklit ederek bir iş adamını 8 milyon dolar dolandırdıkları için tutuklandı.

Deepfake videolarına karşı nasıl korunursunuz?

Uzmanlar temel korunma yöntemi olarak bilginiz olmadığı, aniden gelen ve tanınmış kişilerce yapılan bu tarz çağrılara karşı son derece dikkatli yaklaşılması gerektiği konusunda uyarıyor. Arayan kişiye güvenilmemesi ve hiçbir kimlik bilgisi paylaşılmadan çağrının sonlandırılması gerekiyor. Şayet gelen video mesajın ya da çağrının gerçek olabileceğini düşünüyorsanız, Deeptrace ve benzeri, yapay zekâ tarafından oluşturulmuş videoları tespit eden yazılımlardan faydalanabilirsiniz.

Son olarak gelen çağrının gerçek kişiden olduğunu onaylamak adına ikinci bir iletişim kanalından görüşmeye devam etmeyi talep edebilir ve ancak gerçek çağrı sahibinin cevap verebileceği sorular yöneltebilirsiniz.

Yapay zekâ kullanarak bir başkasının kimliğine bürünerek gerçekleştirilen dolandırıcılıklar kulağa bilim-kurgu gibi gelse de Deepfake video dolandırıcılığı gerçek ve gün geçtikçe bu saldırıyı kullananların sayısı artıyor. Dijital dolandırıcıların saldırılarını bertaraf etmek içinse gündemi takip etmek ve gerekli önlemleri almak kritik öneme sahip.

Yorum ekle