Sahte Görüntüleri Anlamak Mümkün mü?

Deepfake, son birkaç yıldır yapay zekayla ilgilenenlerin en önemli gündemlerinden biri.

  • | Son Güncelleme:
  • | Yeni Günaydın

Millet İttifakı cumhurbaşkanı adayı Kemal Kılıçdaroğlu'nun açıklamalarıyla son günlerde bir anda gündem olsa da deepfake, son birkaç yıldır yapay zekayla ilgilenenlerin en önemli gündemlerinden biri.

Kılıçdaroğlu, "Bu yönde bir bilgi geldi. Araştırdık doğrulattık. 'Deepfake' dediğimiz olay. Bunlar ses ve görüntüleri değiştirerek karalamak istiyorlar" demişti.

Deepfake görüntülerin seçime bir hafta kala kullanılıp kullanılmayacağı veya ne yoğunlukta kullanılacağı meçhul. Ancak Kılıçdaroğlu'nun bu sözlerinin ardından "Deepfake'i nasıl tespit ederiz?" başlıklı içerikler de patlama yarattı.

Öte yandan yapay zeka araçlarının olağanüstü bir hızla ilerlediği göz önüne alınırsa deepfake içeriği tespit etmek, internetteki çoğu kullanıcı için mümkün olmayabilir.

Deepfake ne zamandan beri hayatımızda?

Türkçede "derin sahte" anlamına gelen deepfake kabaca birinin yüzünü dijital olarak başka birinin vücuduna monte edip elde ettiğiniz görüntüyü istediğiniz gibi kullanmanıza olanak tanıyan bir teknoloji. Kısacası internetten kolayca ulaşılabilen algoritmalar sayesinde A kişisinin yüzü B kişisine montajlanabiliyor.

İnternet kullanıcıları, deepfake içeriğe ilk kez 2017'de maruz kaldı. I yıl anonim bir Reddit kullanıcısı, Scarlett Johansson gibi ünlülerin deepfake'le oluşturulmuş sahte pornografik görüntülerini yayımlamıştı.

Yapay zeka algoritmalarının sağlam bir deepfake örneği oluşturabilmesi için bol miktarda video kaydı gerekiyor. Bu da internet ortamında çok sayıda görüntüsü olan ünlülerle daha gerçekçi deepfake'ler oluşturulmasını sağlıyor.

Deepfake'in kısa tarihi

Deepfake teknolojisinin kökleri aslında 1990'ların sonlarına kadar uzanıyor. Örneğin The Video Rewrite programı, yüz değiştirme teknolojisindeki ilk büyük gelişmelerden biriydi. 1997'de piyasaya sürülen The Video Rewrite, kullanıcıların mevcut videolarda bir yüzü diğeriyle değiştirmesine olanak tanıdı. Zamanına göre etkileyici olsa da bu programın oluşturduğu görüntülerle oynandığı açıkla belli oluyordu.

2000'li yıllar boyunca akademisyenler ve teknoloji endüstrisi, yüz tanıma programları geliştirmek için makine öğrenimi irdelemeye devam etti. Örneğin DeepFace adlı bir program kapsamında 4 milyon insanın görüntüsü yapay zeka sinir ağlarına beslendi. Amaç yapay zekanın bu görüntüleri analiz etmesini ve sınıflandırmasını sağlamaktı.

Asıl atılım GAN'larla mümkün oldu

Ancak deepfake için asıl atılım, 2014'te "çekişmeli üretken ağ"ın (GAN) geliştirilmesiyle geldi.

Son derece gerçekçi insan yüzleri oluşturmanın sırrı, "derin sinir ağı" adı verilen bir sistemde yatıyor.

İnsan beyninin öğrenme biçimini taklit eden bu sistem, gerçek yüzlerin görüntülerini içeren devasa bir veri kümesiyle eğitiliyor. Sistemin temelinde en gerçekçi görüntüleri üretmek için yarışan iki derin sinir ağı var.

Bu yarış sonucunda üretilen sahte yüzlere, GAN görüntüleri adı veriliyor.

Son dönemde birden fazla bilimsel araştırma, insanların, yapay zekayla üretilen tamamen sahte GAN yüzlerini gerçek insanların yüzlerinden ayırt edemediğini ortaya koydu.

Üstelik, insanların çoğunun bu GAN yüzlerini daha gerçekçi bulduğu biliniyor.

Deepfake, film sektöründe popüler bir araç

Deepfake teknolojisinin sinema sektöründe sık başvurulan bir yöntem olduğu biliniyor. Örneğin sesi kısılan veya sesini kaybeden oyuncular için dijital ses oluşturmak veya oyuncular repliklerini şaşırırsa sahneyi yeniden çekmek yerine kısaca düzenlemek için deepfake'e başvurulabiliyor.

Ünlü aktör Keanu Reeves, bir röportajında yapay zekanın gelişmesiyle artık performansının önemsizleştiğini hissettiğini söylemiş ve deepfake'ten korktuğunu dile getirmişti:

Yüzüme gözyaşı eklediler ve ben de 'Ha?!' dedim, sanki o sahnede olmama bile gerek yoktu.

Geleceğin en tehlikeli yapay zeka suçu

Uzmanlara göreyse deepfake, aynı zamanda geleceğin en tehlikeli yapay zeka suçu.

Örneğin, University College London’ın 2020 tarihli deepfake raporunda bu teknolojinin gelecekte teşkil ettiği risklere dair önemli bilgiler yer alıyor.

Raporda yapay zekanın önümüzdeki 15 yıl içinde suçu kolaylaştırmak için kullanılabileceği 20 yöntem sıralanıyor. Yazarlara göre deepfake’ler tespit edilmeleri çok zor olduğu için bu yöntemlerin başında geliyor. 

Deepfake'in bugüne dek suç bağlamında ele alındığı belli başlı noktalar var. Bunlardan ilki Scarlett Johansson örneğinde görüldüğü üzere sahte pornolar üretmek. Bunlar aracılığıyla yüzü kullanılan insanlara şantaj yapıldığı da biliniyor.

Bir diğeriyse yine ünlü isimlerin yüzlerini kullanarak yatırım tavsiyeleri aracılığıyla insanları dolandırmak.

Örneğin, Elon Musk'ın deepfake videosuyla kripto para sahteciliği yapmaya çalışan dolandırıcılar görenleri şoke etmişti. Önceki ayarda internette yayılan görüntülerde Musk'ın sesi ve görüntüsüyle internet kullanıcılarına günlük yüzde 30 kar vaat ediliyor. Kaç kişinin bu yolla dolandırıldığı ise bilinmiyor.

Ukrayna'dan Gabon'a: Deepfake'le siyasi propaganda

Dünyanın dört bir yanından gazeteciler ve uzmanlar, deepfake görüntülerin siyasi propaganda amaçlı kullanılabileceğinden de endişeli.

Siyasilerin deepfake görüntüleri, daha çok şaka amaçlı veya konuya dikkat çekmek için oluşturuluyor.

Örneğin, Washington Üniversitesi araştırmacıları, Eski ABD Başkanı Barack Obama'nın deepfake görüntülerini 2017'de yayımlayıp internette dolaştırmış, böylece konuya dikkat çeken ilk örneklerden birini ortaya çıkarmıştı.

Öte yandan yakın zamanda Ukrayna lideri Vlodimir Zelenski'nin askerlere silahlarını bırakıp teslim olmasını söylediği sahte görüntüler büyük tartışma yaratmış ve deepfake'in siyasi propaganda amaçlı kullanımına dair en tehlikeli örneklerden biri olmuştu.

2018'de deepfake Orta Afrika'da darbe söylentilerinin de odağında yer almıştı. Gabon'da sağlığının kötü olduğu ve Fas'ta tedavi gördüğü söylenen devlet başkanları Ali Bongo'nun konuşma yaptığı deepfake görüntüler üretilmişti. Birçok Gabonlu, bu görüntülerin bir hafta sonra gerçekleşecek başarısız darbe girişimini tetiklediği görüşünde.

Malezya'da da 2019'da bir vatandaşın Ekonomi Bakanı Muhammed Azmin Ali'yle cinsel ilişkiye girdiğini iddia etmesi deepfake tartışmalarını beraberinde getirmişti. Zira politikacılar, kanıt olarak ortaya sürülen görüntülerin deepfake olduğunu savunmuştu.

Bu arada uzmanlar, deepfake'in siyasiler açısından gerçeği inkar etmek için başvurulan bir yol olabileceğini de vurguluyor. Örneğin, Eski ABD Başkanı Donald Trump, kadınlara saldırmakla övündüğü "Access Hollywood" videosunun üzerinde oynandığını iddia etmişti. Ancak videonun gerçek olduğu anlaşılınca özür dilemek zorunda kalmıştı. 

Nasıl tespit edeceğiz?

Öte yandan internet kullanıcılarının daha amatör biçimde hazırlanan deepfake'leri ayırt etmesi mümkün olabilir. Bunun için ilk olarak, kullanıcıların gördükleri görüntülerden şüphe edebilmesi gerekiyor.

Sonraki adımlarsa şu şekilde özetlenebilir:

Cilt: Deepfake görüntülerde cilt aşırı kırışık veya son derece pürüssüz görünebilir. Cilt dokusunun vücudun geri kalanıyla uyumlu olup olmadığına dikkat etmek gerekebilir.

Renk tonu: Ayrıca yüzdeki gölgeler ve renk tonunun da görüntülerin geri kalanıyla uyumlu olup olmadığına bakılabilir.

Yüz kılları: Bazı deepfake'ler, yüz kıllarını eşit şekilde paylaştırmayı başaramıyor. Bu da yüzün doğal görünmemesine neden olabiliyor.

Ağız ve dudaklar: Deepfake görüntülerde dudaklar, yüzle uyumlu bir orantıda olmayabiliyor. Ayrıca bazılarında dişler de ayrıntılı biçimde oluşturulamayabilir.

Ses: Bir başka harika gösterge de kişinin sesi. Deepfake bir ünlüye uygulanmışsa, onları taklit etmek için seslendirme sanatçıları kullanılabilir veya deepfake sesi kullanılabilir. Ancak bu da her zaman kulağa o kadar doğru gelmeyebilir. Tonlamada herhangi bir tutarsızlık da ipucu olabilir.

Gözler: Bazı sahte görüntülerde kişilerin gözlerinin gerçekçi olmayan biçimde hareket ettiği veya çok donuk olduğu görülebilir.

Deepfake'leri anlamak her zaman mümkün mü?

Öte yandan hem yapay zekanın gelişmesiyle hem de sahte görüntülerin ardındaki kişilerin daha "kaliteli" bir iş çıkarmasıyla bu deepfake'ler son derece gerçekçi görünebilir.

Özellikle ünlü isimlerin deepfake'lerini bazı durumlarda tanımak mümkün olmayabilir.

Tom Cruise'dan Keanu Reeves'e en şaşırtıcı örnekler

Bunlardan biri deeptomcruise adlı TikTok kullanıcısının önceki günlerde yayımladığı video. Kullanıcıların son derece gerçekçi bulduğu görüntülerin ardında ise hipergerçekçi yapay görüntüler için yazılım ve yapay zeka araçları geliştiren Metaphysic adlı şirket var.

 ABD'li aktör ve komedyen Bill Hader da deepfake'lerin odağında. Aktör, katıldığı çeşitli programlarda Al Pacino gibi usta oyuncuların taklitlerini yapmasıyla biliniyor. Ctrl Shift Face adlı bir YouTube kanalı da Hader'ın bu taklitlerini deepfake'lerle birleştiriyor. Örneğin kanal, Hader'ın Al Pacino taklidi yaptığı görüntüleri düzenleyip aktörün yüzüne Al Pacino'nun yüzünü monte etmişti. Ortaya bu etkileyici görüntüler çıkmıştı.

Bir diğer ünlü örnek de Stanley Kubrick'in 1980 yapımı The Shining filminde Jack Torrance karakterini canlandıran Jack Nicholson'ın yüzü yerine Jim Carrey'nin yüzünün konduğu, ses getiren bir videoydu.

Bu arada Keanu Reeves'in deepfake teknolojisinden korkmakta haklı olduğunu düşündürecek bir örnek daha var. Bu son derece eğlenceli videoda Wachowski Kardeşler'in 1999 yapımı The Matrix filmindeki Neo karakterinden Reeves'in yüzü çıkarılmış ve yerine Will Smith yerleştirilmişti.
 
Deepfake tespit araçları ve dayandıkları yöntemler neler?

Tüm bu örnekler epey eğlenceli görünse de aslında deepfake teknolojisinin yıllar içinde ne kadar geliştiğine ışık tutuyor ve halen hızla gelişmekte olduğunu düşündürüyor.

Bu yüzden de internet kullanıcılarının son derece gerçekçi deepfake görüntüleri anlayamadığı noktada devreye girebilecek bazı araçlar geliştiriliyor.

Bu araçlar da tonlama farklılıkları, renk değişimleri gibi özelliklere dayanıyor ama insanın fark edemeyeceği mikro düzeydeki farklılıkları tespit edebiliyor.

Intel'in "yalan dedektörü" yüzde 96 başarı getirdi

Çip devi Intel, FakeCatcher adlı bir deepfake algılama teknolojisi geliştiriyor. Firma geçen yıl, bu teknolojinin sahte videoları yüzde 96 oranında doğru tespit ettiğini açıklamıştı.

Bu teknoloji bir videodaki pikselleri tarayarak görülen kişinin yüzündeki ince kan akışı mekaniklerine dair veri topluyor.

Zira ekranda gerçek bir kişi varsa, damarlarından kan pompalanırken dokuları mikroskobik ölçekte az da olsa renk değiştiriyor. Deepfake'ler en azından şimdilik bu değişikliği  kopyalayamıyor.

Adobe'un açık kaynaklı tespit girişimi

Tasarım araçları devi Adobe'un yayımladığı ve Microsoft, New York Times ve Canon da dahil olmak üzere binden fazla büyük markanın destek verdiği Content Authenticity Initiative'e (CAI) adlı sistem de umut vaat ediyor.

CAI, bir görüntüye eklenmiş meta verileri doğrulayarak çalışan bir sistem. Bu sistem sayesinde kullanıcılar, görüntünün nereden geldiğini ve nasıl düzenlendiğini görebilir. Genellikle görüntülere gömülü "dijital parmak izi" diye adlandırılan meta veriler, fotoğraf çekmek için hangi kameranın kullanıldığı, görüntünün çekildiği tarih ve görüntüde ne olduğu gibi ayrıntıları saklıyor.

Öte yandan özünde meta veriler düzenlenebilir veya çıkarılabilir, bu nedenle bir fotoğrafın kimliğini doğrulamak için tamamen güvenilir bir araç olarak görülmüyor.

Ayrıca bu sistemin çalışabilmesi için görüntülerin sisteme dahil edilen araçlar üzerinde düzenlenmiş olması gerekiyor. Bu yüzden diğer markaların da sisteme katılımı önemli.

Fonem-Vizem uyuşmazlıklarına dayanan dedektör

ABD'deki Stanford Üniversitesi ve Kaliforniya Üniversitesi'nden araştırmacılar da kısa süre önce bir deepfake dedektörü modeli geliştirdi. Bu model, deepfake görüntülerdeki dudak hareketlerinin sesle uyuşmazlığına odaklanıyor.

Buradaki "fonem" sesi ifade ederken, "vizem" de ona karşılık gelen görüntü anlamında.

Çok küçük uyuşmazlıkları bile yakalayabilen model, sahte görüntüleri yüzde 97'ye kadar doğru tahmin edebiliyor.

Blok zincirinin devreye girdiği araç

Sahte video tespit şirketi Amber de deepfake dedektörü geliştirmekte olan firmalardan. Şirket, Amber Authenticate adlı araç üzerinde çalışıyor.

Bu araç polislerin vücut kameraları gibi kamusal araçlara veya bireysel kameralara entegre edilecek şekilde tasarlandı. Bu cihazlarda arka planda çalışırken, kaydedilen görüntülerin bilgilerini blok zincirine aktarıyor.

Bu da aracın işlediği görüntüler üzerinde oynanırsa bunların tespit edilebilmesini kolaylaştırıyor. Ancak bunun işlevli olabilmesi için de video kaydedicilere yaygın biçimde entegre edilmesi gerekebilir.

Tespit için çalışan çok az insan var

Öte yandan uzmanlar, halihazırda ChatGPT, Dall-E veya deepfake araçlarını geliştirmek için çok sayıda insanın istihdam edildiğini ve bu alanda yoğun bir faaliyet yürütüldüğünü vurguluyor.

Ancak uzmanlara göre, yapay zekayla üretilmiş yazı veya görüntülerin tespiti için yeterince çalışma yürütülmüyor.

ABD'deki Kaliforniya Üniversitesi Berkeley kampüsünde bilgisayar bilimi profesörü ve dijital adli tıp uzmanı Hany Farid, "Cephanemiz azaldı" diyor.

Washington Post'a konuşan bilim insanı şöyle ekliyor:

Video üretim tarafında çalışanların video tespit tarafında çalışanlara oranı 100'e 1.

 

Yararlanılan kaynaklar: Forbes, Inspired e-Learning, Science Daily, Washington Post, Fortune, Gizmodo, Washington Üniversitesi, Yahoo News, Analytics India Mag, Wired

YORUMLAR

Bu habere henüz yorum yapılmamış.İlk yorum yapan sen ol...

Yorum Yap

Bu Alan Boş Bırakılamaz
Bu Alan Boş Bırakılamaz
Yorum Yapma Şartlarını Kabul Etmediniz