"Artırılmış sahtekarlık" tehlikesi, organik videolar...

"Artırılmış sahtekarlık" tehlikesi, organik videolar ve medya

Medya ortamlarında ağzından ateş çıkaran bir ejderha videosu gördüğümüzde bunun gerçek olmadığını herhangi bir uzmanlığa ihtiyaç duymadan bilebiliriz. Peki, ejderhanın bir hayal ürünü olduğunu bilen insanlar, gerçek kişilere ait görüntü ve sesten oluşan bir videonun sahte olduğunu bilseler ne yaparlardı?

24 Haziran 2019 - 12:20

İletişim teknolojilerinde yaşanan baş döndürücü gelişmeler yapay zekanın fikir olgunluğuna erişmesine ve uygulama safhasına geçilmesine imkan sağlamıştır. Yapay zeka ile bağlantılı olarak, iletişim ortamlarında derin öğrenme, ses taklidi, video-sentez gibi kavramlar sayesinde medya şirketlerinin güvenilirliğinden ziyade içeriklerin güvenilirliği sorgulanmaya başlanmıştır. Gerçek olup olmadığı çıplak gözle ayırt edilemeyen “artırılmış sahtekarlık” ürünü görüntülerin üretilebilmesi, henüz vatandaşların kullanımına sunulmamış olmasına rağmen şimdiden tartışma konusu olmuştur. 

Medya ortamlarında ağzından ateş çıkaran bir ejderha videosu gördüğümüzde bunun gerçek olmadığını herhangi bir uzmanlığa ihtiyaç duymadan bilebiliriz. Peki, ejderhanın bir hayal ürünü olduğunu bilen insanlar, gerçek kişilere ait görüntü ve sesten oluşan bir videonun sahte olduğunu bilseler ne yaparlardı?  Hatta canlı yayınlanan bir basın toplantısında konuşan kişiye ait görüntünün gerçek olmayabileceğini bilmek nasıl bir tepkine neden olurdu?  Bu türden soruların cevaplarını sosyolog ve psikologlar önümüzdeki dönemlerde vermeye çalışacaklardır. Biz bu soruların otaya çıkmasına neden olaya bir göz atalım:
 
Birer “artırılmış sahtekarlık” ürünü olan bu videoların üretimi video-sentez tekniği ile mümkün hale geldi. Washington Üniversitesi’nde yürütülen bir çalışmada, iki farklı video ve bir ses dosyası kullanılarak video-sentez adı verilen teknikle yeni bir video üretildi. Videodaki ABD’nin bir önceki başkanı Obama’nın 1990 yılında yaptığı bir konuşma, 2016 yılındaki görüntüsü ile sentezlenip yeni bir video elde edildi. Konuşma ve ses ayrı ayrı gerçek materyaller olsa da, edilen nihai görüntü sahteydi. Obama’nın ağız ve yüz mimikleri kaynak videodan alınarak hedef video üzerinde önceden hazırlanmış sese uygun olarak yeniden üretildi. Böylece 1996 yılındaki ses ile 2016 yılındaki video birleşti ve 2018’daki yeni video ortaya çıktı. Üretilen “artırılmış sahtekarlık” ürünü video, sahteliğinin sıradan insanların anlaması mümkün olmayacak derecede “gerçekçiydi”.

Bu yöntemin sinema veya kurguya dayalı video üretiminde kullanılması pekala verimli olabilecekken haber içeriklerinde, manipülasyon veya propaganda amaçlı videoların üretiminde kullanılabilme ihtimali bir kaosa neden olabilir. Kullanıcı sayıları, milyarlarca insana ulaşan sosyal medya aracılığıyla üretilen mikro içerikler sayesinde kısa sürede makro seviyede etkiler elde etmek mümkün hale gelmiştir. Kısa sürede viral olan içerikler dışında “vatandaş gazeteciliği” ürünü içerikler dışında, hükümetlerin bile istihdam ettiği trol olarak adlandırılan hesaplar için bu türden sahte videolar bir “fırsat” olabilir. Yalan haber üretme, doğru haber kaynaklarına saldırıp onları bastırma, farklı fikirleri dışlayıp suçlu ilan etme, nefret suçu yayma veya kamuoyu oluşturmak için eşsiz bir imkan sunabilir. 

Bu tekniğin bir sonraki aşamasında video-sentez tekniğinin gerçek zamanlı olarak uygulanması olacaktır. Canlı yayınlanan bir gerçek kişinin görüntüsü canlı yayın kaynağından eşzamanlı olarak alınıp, video-sentez tekniği ile daha önceden montajlanan bir ses kaydına göre yine eşzamanlı olarak “istenilen şekilde” konuşturmak mümkün olacaktır. 

Bir an için ABD Devlet Başkanı Trump ile Çin Devlet Başkanı’nın canlı yayınlanacak bir basın toplantısı yapacağını, bir de, Trump’ın daha önce yaptığı konuşmaların kesilip biçilmesi ile elde edilmiş şu ses kaydını bir kötü niyetli video-sentez uygulayıcısının elinde olduğunu farz edelim: 

Çin ile daha önceden yapılmış bütün ticaret anlaşmalarını iptal edeceğiz, bütün vergileri artırıp Çin menşeili şirketlere yaptırım uygulayacağız.

Bu ses kaydı, canlı yayında “Çin ile ABD arasındaki ticari ilişkilerin geliştirilmesi” hakkında konuşan Trump’ın gerçek görüntüsü ile sentezlenip yeni bir video eşzamanlı olarak elde edilip, CNN’in sosyal medya hesapları üzerinden yayınlandığını bir an için düşünelim. Şüphesiz ki bu “artırılmış sahtekarlık” ürünü video, ulaştığı her kişide, kurumda, şirkette önemli bir şok etkisi yaratabilir, borsaların anlık çökmesine neden olabilir, kısa süreli kaos yaratabilir, ta ki gerçek oraya çıkana kadar.

Bu türden videoların sahteliğinin kendiliğinden ortaya çıkmasını beklemek, birkaç dakika sonra bile olsa da çok geç kalınmasına neden olabilecektir. Henüz halkın kullanımına sunulmayan bu türden videoları üreten yazılımlarla ilgili yasal düzenlemeler yapılması çok önemlidir, fakat tek başına yasalar yetmeyecektir. Yasadışı bir algoritma ile mücadele ancak bir başka algoritma ile mümkün olacaktır. Aksi takdirde, süpermarketlerde oldukça pahalıya satılan organik ürünlerin üzerindeki etiketler gibi gerçekliğinden emin olunan videolara da “organik” yazmak zorunda kalabilir, bunların dışındaki tüm içerikleri ise sahteliğini bilerek “inorganik” olarak tüketmek zorunda kalabiliriz.  

Böyle bir durum söz konusu olduğunda, hiç dokunulmamış, işlem görmemiş “organik videolara” ulaşmak bizim için daha maliyetli olabilir. Gerçekliğinden emin olunan videoların “organik videolar” olarak işaretlenmesi yasalar, kullanıcı sözleşmeleri veya beyan ile değil yapay zeka olmalıdır. Çünkü algoritmalar her zaman yasalardan daha hızlı harekete edecek ve kararları anlık olarak uygulayabileceklerdir. 

2022 yılında internet bant genişliği tüketiminin % 82’sinin videolara kullanılacağının öngörülmesinin nedeni, sadece video içeriklerinin bayt (bite) olarak büyüklüğü değil, en fazla tüketilecek medya içeriklerin videolar olacağı gerçeğidir. Bugün pek çok metin bile art arda yerleştirilen fotoğraflar veya görüntüler üzerine yazılarak video haline dönüştürülerek iletilmektedir. 

Videonun bu kadar ön plana çıkması ile video-sentez tekniği gibi yazılımlar ile üretilen gerçekçi videoların da medya ortamlarında dolaşıma sokulacağı düşünüldüğünde önemli bir güven sorunu karşımıza çıkmaktadır. Ancak ve ancak yapay sinir ağları ile donatılmış bir yapay zeka sayesinde, “artırılmış sahtekarlık” ürünü bu türden karanlık videoların üretimi, dolaşıma sokulması veya dolaşımdan kaldırılması mümkün olabilecektir. video-sentez, yeni bir sahte ortam üretim tekniği olarak henüz kamuoyunun kullanımına sunulmadan olası sonuçları şimdiden hesaplanmalıdır.

(Fatih ARTUN - independentturkish.com)

YORUMLAR

  • 0 Yorum
Henüz Yorum Eklenmemiştir.İlk yorum yapan siz olun..
İLGİNİZİ ÇEKEBİLİR x
Yeni ve eski başkanlar Tekirdağ'a hizmet için el ele
Yeni ve eski başkanlar Tekirdağ'a hizmet için el ele
Türkiye'de sadece Sivas'da bulunuyor
Türkiye'de sadece Sivas'da bulunuyor