Sahte Cinsel İçerikli Video Üretmek Kolaylaştı, Herkes Tehlike Altında
Son haftalarda internete yüklenen ve "deepfake" denilen sahte cinsel içerikli videolarda bir patlama yaşanıyor.
Son haftalarda internete yüklenen sahte cinsellik içeren videolarda patlama yaşanmış durumda. Bu tür videolarda, yalnızca fotoğraflarına sahip olunan bir kişinin yüzü, bir cinsel içerikli film videosundaki aktrisin yüzüne monte ediliyor.
BÜYÜK SORUNLARA YOL AÇABİLİR
Bu videoları üretmeyi sağlayan araçlar daha güçlü ve daha kolay kullanılır hale geldikçe, insanlar hayallerindeki cinsel fantezileri internete aktarma imkanı buluyor. Fakat bu tür videolar ahlaki sınırları aşmanın yanı sıra gördüklerimize inanma hissimizi de etkiliyor. Sahte video teknolojisi ciddi sonuçlara yol açabileceğinden korkuluyor.
KİMSE NE YAPACAĞINI BİLMİYOR
Deepfake videoların yayınlandığı internet siteleri gelişmeleri yakından takip ettiklerini söyleseler de bu konuda ne yapabilecekleri hakkında bir fikirleri yok. Bu tekniği kullanan topluluklarda ise ünlü yüzlerin hiç beklenmedik cinsel ilişki videolarında görünmesinin getirdiği bir heyecan var.
ETİK TARTIŞMASI YAŞANIYOR
Bu topluluklarda yaptıkları şeyin gerçek etkileri tartışılırken vicdanın izine rastlamak çok zor. Başka birinin yüzünü kullanarak bir cinsel ilişki videosu yaratmak etik dışı mı? Öyleyse ne önemi var? Birine zarar veriliyor mu?
Belki de yaptıklarının, kullanılan kişiye ne hissettirdiğini düşünmeleri gerekir. Reddit sitesinde bir kullanıcının söylediği gibi, bu distopik bilim kurgu dizisi Black Mirror'dan fırlamış bir uygulamaya benziyor.
NASIL YAPILIYOR?
Bu tür videoları yaratmayı sağlayan ve bir ay önce yayınlanan yazılımlardan biri, programı yaratan kişiye göre bir ay içinde 100 binden fazla indirildi.
Sahte görüntüler yüz yıldan uzun bir süredir yaratılmakta olsa da bu çok zorlu bir süreçti, özellikle de videolarda. Gerçekçi videoların Hollywood stüdyolarında kullanılan türden yazılımlara, yeteneğe ve büyük bir bütçeye ihtiyacı oluyordu.
Fakat makine öğrenimi sayesinde bu süreç üç basit adıma indirgendi: Bir kişinin çok fazla fotoğrafını edin, pornografik videoyu seç ve bekle. Kısa bir video için 40 saat gibi bir süre gerekse de bilgisayarlar gerisini hallediyor.
HERKESİN YAPILABİLİR
En popüler sahte pornolarda ünlüler yer alsa da yeterince fotoğrafı bulunan herkesin deepfake videosu yapılabilir. ve günümüzde herkesin sosyal medyaya yüklediği selfie sayısını düşününce bu hiç de zor bir şey değil.
DÜNYADA BÜYÜK İLGİ GÖRÜYOR
Bu teknik dünyanın dört bir yanında ilgi görüyor. Son dönemde Güney Kore'de "deepfake" terimini kullanarak yapılan aramalarda bir patlama yaşandı.
Bunun arkasında muhtemelen 23 yaşındaki pop yıldızı Seolhyun'un bu şekilde üretilen videoları yatıyor.
Görüntüleri izleyenlerden biri, videoyu yapan kişiyi şu sözlerle övüyordu: "Bu, 'deepfake'in yasadışı olması gerektiğini hissettiriyor. Müthiş bir çalışma!"
ÜNLÜLER HEDEFTE
"Deepfake" videoları hazırlayanlar özellikle ünlüleri hedef alıyor.
Bunun arkasında şok etkisi varmış gibi gözüküyor: Bu videolarda gerçekten ünlü aktrislerin yer alması bir skandala yol açardı.
'Deepfake' videolar hazırlayan topluluklar arasında Emma Watson ve Natalie Portman en popüler iki ünlü. Fakat onların dışında Michelle Obama, Ivanka Trump ve Kate Middleton gibi kadınlar da kullanılıyor.
Wonder Woman'ı oynayan Gal Gadot'un yüzünün kullanıldığı video ise bu teknolojinin imkanlarını gösteren ilk videolardan biri olmuştu.
SİTELER SİLİYOR AMA DURDURMAK GÜÇ
Teknoloji sitesi Motherboard tarafından yayınlanan bir makalede bu teknolojinin bir yıl içinde yayılacak kadar gelişeceği öngörülmüştü. Fakat o noktaya gelmesi yalnızca bir ay sürdü.
Bu videolar daha fazla öfkeye yol açarken bu videoların paylaşıldığı siteler önlem olarak deneysel adımlar atmaya başladı. Resim barındırma sitesi Gyfcat, deepfake olarak tanımladığı görüntüleri sildi. Fakat yakın gelecekte bu çok daha zor bir görev haline gelecek.
Deepfake topluluğunun kullandığı Reddit sitesi ise henüz bir adım atmadı. Fakat BBC'nin edindiği bilgilere göre site yönetimi gelişmeleri yakından takip ediyor. Belli bir görsel için Google'da yapılan aramalarda da bu sonuçlarla karşılaşılabiliniyor.
PROPAGANDA AMAÇLI KULLANILABİLİR
Halihazırda Donald Trump'ın suratını kullanarak yapılmış sahte videolar internette dolaşıyor. Bunların sahte olduğu bariz olsa da propaganda amaçlı üretilmesi durumunda yaratacağı etkiyi tahmin etmek kolay.
Google geçmişte bazı materyallerin daha zor çıkması için arama sonuçlarında değişikliklere gitmişti. Fakat aynısını "deepfake" için de yapıp yapmayacakları henüz netleşmiş değil. Pek çoğumuz gibi şirketler de bu tür görüntülerin var olduğunu yeni yeni fark ediyor.
BÜYÜK PSİKOLOJİK HASARA YOL AÇABİLİR
"Deepfake" videolar ise insanları utandırmak için yapılabileceklere yeni bir seviye ekliyor. Bir video gerçek olmasa bile yol açacağı psikolojik hasarlar gerçek oluyor.
The Outline için yazdığı bir makalede gazeteci Jon Christian, en kötü ihtimali değerlendiriyor ve bu teknolojinin "hükümetleri veya halkları kandırarak uluslararası bir çatışma yaratmak için kullanılabileceğini" söylüyor.
Bu, ihtimal dışı bir tehdit değil. Sahte haberler (ister dalga geçmek ister insanları kandırmak için yapılmış olsun) halihazırda küresel bir tartışmaya yol açmış, fikirleri değiştirmiş ve belki de seçimleri etkilemiş durumda. Fakat 'deepfake' topluluğunun haklı olduğu bir nokta var: Bu teknoloji artık burada ve bu noktadan geri dönüş yok.