Yapay Zeka İle Çocuk Kaçırma Dolandırıcılığı!

Annesi, "O olduğundan bir an bile şüphe etmedim" diyor

  • | Son Güncelleme:
  • | Yeni Günaydın

Bir anne, dolandırıcıların sahte bir kaçırma girişiminde kullandıkları, kızının sesinin yapay zeka tarafından oluşturulan kopyasına "yüzde 100" inandığını söyledi.

Arizonalı Jennifer DeStefano, bilinmeyen bir numaradan gelen telefonu açtı ve 15 yaşındaki kızı Brie olduğuna inandığı kişinin "hıçkıra hıçkıra ağladığını" duydu.

Hattın diğer ucundaki ses "Anne, her şeyi berbat ettim" dedikten sonra bir erkek sesi devreye girerek tehditkar taleplerde bulundu.

Yerel haber kanalı WKYT'ye konuşan DeStefano, "Bu adam telefona çıktı ve 'Dinle beni, kızın elimde' gibi şeyler söyledi" diye belirtti.

Çocuğu kaçırmış gibi yapan kişi anneye, "Polisi ararsan, herhangi birini ararsan, onu uyuşturucuya boğacağım, onunla işimi göreceğim ve onu Meksika'ya bırakacağım" dedi.

DeStefano, arkadan kızının "Yardım et anne, lütfen yardım et" dediğini ve ağladığını duyabildiğini söyledi.

DeStefano, "Yüzde 100 onun sesiydi" dedi.

Hiç bu kim diye düşünmedim. Tamamen onun sesiydi, onun tonlamasıydı, onun ağlama şekliydi; o olduğundan bir an bile şüphe etmedim. Beni gerçekten derinden etkileyen tuhaf kısım buydu.

Çocuğu kaçırmış gibi yapan kişi, kızı serbest bırakmak için önce 1 milyon dolar talep etti, daha sonra bu rakamı 50 bin dolara indirdi. DeStefano, kızının kaçırılmadığını ancak bir arkadaşı eşini arayıp güvende olduğunu teyit edince anladı.

Polisin halen soruşturduğu dolandırıcı, yapay zeka ses kopyalama teknolojisini kullanıyor gibi görünüyor. Bu teknoloji son yıllarda insanların seslerini taklit etmekte giderek daha başarılı hale geliyor.

Ayrıca internette ücretsiz olarak bulunan yapay zeka araçlarına erişmek ve kullanmak da nispeten kolay.

Yapay zeka tarafından üretilen sesler, Star Wars serisinde orijinal Darth Vader karakterini seslendiren James Earl Jones gibi oyuncuları taklit etmek için filmlerde halihazırda kullanılıyor.

Ayrıca, yazarların stüdyoda saatlerini harcayıp eserlerini okumadan sesli kitap üretmelerinin bir yolu olarak da tanıtılıyor.

Bu teknoloji aynı zamanda dolandırıcılar ya da deepfake videolar yaratmaya çalışan kişiler tarafından kötüye kullanılabileceği korkusunu da beraberinde getirdi ve bir ses klonlama girişimi, bu teknolojinin "yanlış ellerde zararlı olabileceği" uyarısında bulundu.

Respeecher firması, geçen yıl yaptığı bir basın açıklamasında "Deepfake teknolojilerinin yaygın şekilde ilgi görmesi ve benimsenmesi, bu teknolojinin kullanımının düzenlenmesi ihtiyacını hızlandıracak" ifadelerini kullandı.
 

YORUMLAR

Bu habere henüz yorum yapılmamış.İlk yorum yapan sen ol...

Yorum Yap

Bu Alan Boş Bırakılamaz
Bu Alan Boş Bırakılamaz
Yorum Yapma Şartlarını Kabul Etmediniz