Ana SayfaANALİZLERANALİZ – Hayatı zehretme potansiyeli çok yüksek bir teknoloji: Deep fake (derin...

ANALİZ – Hayatı zehretme potansiyeli çok yüksek bir teknoloji: Deep fake (derin gerçek)

Ona, ‘gerçek’in başına gelmiş en büyük felaket de diyebiliriz. Bir fotoğraftan hatta bir portreden üretilmiş ve gerçek olmadığını anlamanın imkânsız olduğu videolar âleminden söz ediyoruz. Siyaseti manipüle etmede kullanılmasından korkuluyordu; o -şimdilik- olmadı ama porno, şantaj ve dolandırıcılık sektörlerini patlattı.

Şu satırları, deep fake teknolojisinin varlığından ilk kez haberdar olduğum 2019 yazında kaleme almıştım:

“Kendinizi bir an için ünlü bir siyasetçi olarak düşünün… İnternette, 10 yıl önce basına kapalı bir toplantıda yaptığınız bir konuşmanın kaydı olduğu söylenen bir videoyla karşılaştınız… O konuşmada neler söylediğinizi hatırlıyorsunuz, fakat videoda ne o gün ne de bugün asla dile getirmeyeceğiniz fikirleri art arda sıralıyorsunuz.

“Videoyu izlerken, kendi kendinize sorduğunuz bütün sorulara ‘evet’ cevabı veriyorsunuz: Evet, bu benim 10 yıl önceki halim… Evet, sesim aynı… Evet, dudak hareketleriyle sesler arasında hiçbir uyumsuzluk yok… Evet, bu konuşan benim, fakat ben asla bu cümleleri kurmamıştım.”

Doğru, siz bambaşka şeyler söylemiştiniz ama itirazlarınız pek bir işe yaramayacak, çünkü insanları, izledikleri şeyin gerçek değil teknoloji marifetiyle üretilmiş bir video olduğuna ikna edebilmeniz hususunda neredeyse hiç şansınız yok; çünkü izledikleri şey o kadar ‘gerçek!’

Ve bu kadar ‘gerçek’ bir videoyu üretebilmek için ille sizin başka bir videonuza sahip olmak ve onu ‘dönüştürmek’ gerekmiyor. Hayır, bir fotoğrafınızdan, hatta bir tablonuzdan-portrenizden bile video üretmek mümkün bu teknolojiyle.

Siyasi istismardan korkulmuştu ama…

Geçtiğimiz Kasım’da yapılan ABD seçimlerinde, hele ki Trump gibi bir gerçek bükücünün varlığı koşullarında deep fake teknolojisinin işin içine karıştırılacağından çok korkulmuştu. Haksız bir korku sayılmazdı bu; yalan temelli propagandanın esas propaganda biçimi olduğu bir dünyada böyle bir teknolojiye baş vurulmaması düşünülemezdi.

Nitekim Amerikan istihbarat servisleri, seçimlere bir yıldan fazla bir zaman kala, Eylül 2019’da Facebook, Google ve Twitter ile 2020 seçimleri öncesinde alınması gereken önlemleri görüşmek üzere bir araya bile gelmişlerdi.

Belki alınan bu tedbirler nedeniyle ABD seçimlerinde ‘derin gerçek’ videolarının kullanıldığına şahit olunmadı.

Deep fake şantaj ve dolandırıcılık ‘endüstrisi’nin hizmetinde

Fakat mesele başka bir noktadan patlamış görünüyor.

Eskiden, sahte fakat ‘gerçek(çi)’ videolar elde etmek karmaşık yazılımlar, yetenek ve büyük bir bütçe gerektiriyordu. Fakat bu süreç artık son derece basit birkaç adıma indirgenmiş durumda.

İşte bu nedenle deep fake teknolojisiyle artık kişilere şantaj yapıp para kazanmak ya da onu muhtelif dolandırıcılık işlerinde kullanmak mümkün hale geldi.

Ünlü aktrislerin fotoğrafları kullanılarak üretilmiş deep fake porno filmler üzerinden şantajla para kazanmak mümkün değil belki, fakat bu videoların normal olarak porno sektörünün müşterisi olmayan bir kesimi de piyasaya çekmesi ve dolayısıyla büyüyen piyasa üzerinden ilave paralar kazandırması mümkün.

4 Nisan’da turkrus.com’da yer alan “Rusya’da dolandırıcıların yeni gözdesi ‘deepfake’ teknolojisi” başlıklı haberde şöyle deniyordu:

“Rusya’da son dönemde popüler olan ve 2021’de en sık karşılaşılması beklenen yeni dolandırıcılık yöntemleri açıklandı. Cross Technologie şirketi yöneticisi Aleksandr Tyurnikov, siber suçluların, internet kullanıcılarını aldatmak için sosyal mühendislik ve çeşitli senaryolar kullanarak ‘hibrit kimlik avı’ saldırılarını aktif olarak uygulamaya başladıklarına dikkat çekti.

“Dolandırıcıların, her yıl kalitesi artan ‘deepfake’ teknolojilerini sıklıkla kullandığını belirten Tyurnikov, ‘deepfake’ yoluyla yayılan yanlış bilgilerin bu yıl bilgi güvenliği uzmanlarını en fazla uğraştıracak ‘baş ağrısı’ haline gelebileceğini öngörüyor.”

Deep fake’in Türkiye’deki pratiğine dair henüz pek bir şey bilmiyoruz. Fakat bu teknolojinin kötüye kullanımına dair haberlerin pek de uzak olmadığını tahmin etmek yanlış olmaz.

- Advertisment -