Yakın vakit evvel Google, GPU’lardan yardım alan fiyatsız bilgi süreç hizmeti Google Colaboratory’deki deepfake (Derin Hile) algoritmalarını yasakladı. Deepfake’leri düzenleyen bir kişi yahut teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen kanunları var. Çin yasa tasarısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve muhtemel AB yapay zekâ düzenlemesinin bu özel teknoloji hakkında unsur içermesi bekleniyor.
Kaspersky uzmanları, deepfake sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıklıyor:
- ‘Deepfake’ çoklukla insanlara dair özellikleri mevzu alan ve derin hudut ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya tiplerini tabir ediyor. Bunlar görüntü, fotoğraf yahut ses kaydı olabiliyor. Klasik manzara düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir geçersiz kesim oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor.
- Başlangıçta bu terim Reddit’te popülerlik kazanmış makul bir yazılım modülüne atıfta bulunuyordu. Yazılım, bir kişinin yüzünü öteki kişinin bulunduğu bir görüntüye yerleştirebiliyordu ve ünlülerin taklitleriyle istek dışı porno imajları oluşturmak için kullanıldı. Kestirimlere nazaran tüm deepfake sahtekarlıkların 96’sı pornografik manzaralardan oluşuyor. Deepfake’in berbata kullanımı, prestij gaspı ve kamuyu önünde utandırma üzere kullanımlara dair telaşları gündeme getiriyor.
- Bu teknoloji siber hatalılara da yardımcı olabiliyor. İngiltere ve Hong Kong’daki en az iki olayda, ilgili şirketlerin yöneticisi üzere davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış deepfake ses sahtekarlığı kullanıldı. Yeni araştırmalar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan deepfake uygulamaları tarafından kandırılabileceğini ve yeni taarruz vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini önemli bir sorun haline getirdiğini gösteriyor.
- Diğer bir sorun da deepfake sahtekarlıklarının, makus maksatlarla kullanılabildikleri için ses ve görüntü içeriğine olan itimadı sarsması. Örneğin yakın tarihli bir olayda, kripto para ünitesi dolandırıcılığını desteklemek için Elon Musk ile yapılan düzmece bir röportaj kullanıldı. Europol üzere çeşitli uzmanlar ve kurumlar, deepfake imgelerinin artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor.
- Haberlerin hepsi gerçek haber değil. Manzara manipülasyonu, görüntülemenin kendisi kadar eski bir bahis. CGI onlarca yıldır piyasada ve her ikisi de deepfake üzere geniş bir kullanım alanı buldu. Örneğin Kendrick Lamar’ın yakın tarihli Heart Part 5 görüntüsünde, rapçinin yüzünü Kanye West üzere öteki ünlü ünlülere dönüştürmek için deepfake teknolojisi kullanıldı. Top Gun: Maverick sinemasında oyuncu sesini kaybettikten sonra Val Kilmer’in karakterini seslendirmek için bir algoritmadan yardım alındı. Düzmece Tom Cruise’un oynadığı viral bir TikTok serisi oluşturmak için de yeniden deepfake algoritmaları kullanıldı. Birkaç teşebbüs, örneğin gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor.
Deepfake’leri çevreleyen tüm itimat problemleriyle birlikte, bir deepfake’in nasıl tespit edileceği merak ediliyorsa işe aşağıdaki ipuçlarıyla başlanabilir:
- Tom Cruise’un yer aldığı örneklerdeki üzere inandırıcı deepfake örnekleri hala çok fazla uzmanlık, uğraş ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, berbat işlenmiş saçlar, uyumsuz yüz formları, çok az göz kırpma yahut hiç kırpmama, deri rengi uyumsuzlukları üzere ögelerle fark edilebiliyor. Giysilerin işlenmesindeki kusurlar yahut yüzün üzerinden geçen bir el de amatör bir deepfake çalışmasını ele verebiliyor.
- Ünlü yahut halka açık bir kişinin çılgın savlar yahut gerçek olamayacak kadar düzgün teklifler yaptığına rastlanılırsa, görüntü ikna edici olsa bile gerekli ihtimam gösterilmeli ve bilgileri saygın kaynaklardan denetim edilmelidir. Dolandırıcıların deepfake eksikliklerini gizlemek için görüntüleri kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en âlâ strateji görüntüye bakarak ipucu aramak değil, sağduyu ile gerçekleri denetim etme hünerlerini kullanmaktır.
- Güvenilir bir güvenlik tahlili, yüksek kaliteli bir deepfake sahtekarlığının kullanıcıyı makus emelli belgeleri yahut programları indirmeye, kuşkulu irtibatları yahut kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada takviye sağlayabilir.
- Deepfake pornosunun kurbanı olunması durumunda, görüntünün kaldırılmasını talep etmek için hem web sitesine (birçok web sitesi deepfake göndermeyi yasaklar) hem de deepfake oluşturmak ceza gerektiren bir hata olduğu için kolluk kuvvetlerine başvurulabilir.
Kaynak: (BHA) – Beyaz Haber Ajansı