Harari, Yapay Zekadan Endişeli!

"İnsanlığın sağ çıkıp çıkamayacağını bilmiyorum"

  • | Son Güncelleme:
  • | Yeni Günaydın

"Bu bir gelecek tahmini değil. Zaten oluyor"

Sapiens: İnsanlığın Kısa Tarihi ve Homo Deus: Yarının Kısa Tarihi kitaplarıyla tanınan İsrailli tarihçi Yuval Noah Harari, yapay zekanın yükselişinden derin bir endişe duyuyor.

The Telegraph'a konuşan 47 yaşındaki yazar, "Bu, tarihte hikayeler yaratan ilk teknoloji" ifadelerini kullandı.

Harari hiçbir şeyin bundan daha büyük bir güç gösterisi olamayacağını söylüyor. Çünkü ona göre, insanlığın inanç sistemleri, finans ve ulusla ilgili "hikayelere" yönelik toplu inancı, Dünya üzerindeki hakimiyetinin de anahtarı oldu.

Artık yapay zekanın da bu tür hikayeler yarattığını savunan yazar, bu nedenle geçen ay söz konusu teknolojinin varoluşsal risklerine dikkat çeken mektuba imza atmıştı.

İmzacıları arasında Elon Musk'ın da yer aldığı mektup, riskleri anlaşılana kadar ChatGPT benzeri sistemler geliştiren tüm kurumların çalışmalarını 6 ay durdurmasını talep ediyordu.

Özellikle 2022'de patlama yaratan "üretken yapay zeka" araçları, pek çok uzmanı varoluşsal riskleri düşünmeye itti.

Kullanıcıların sohbet kutucuğuna kelimeler girerek görüntü oluşturmasını sağlayan Dall-E veya onlarla yazılı ya da sesli olarak sohbet edebilen ChatGPT gibi araçlara üretken yapay zeka adı veriliyor.

Bu araçlar, internetteki milyonlarca satır metinle ve görselle eğitildi. Bu sayede kullanıcıların sorularını yanıtlayabiliyor veya istenen konuyla ilgili görseller üretebiliyor.

Öte yandan Harari, "Yeni nesil yapay zeka, yalnızca insanların ürettiği içeriği yaymıyor. İçeriği kendi başına üretebilir" ifadelerini kullanıyor:

Çoğu metnin ve melodinin ve ardından TV dizilerinin ve görüntülerin insana ait olmayan bir zeka tarafından yaratıldığı bir dünyada yaşamanın ne anlama geldiğini hayal etmeye çalışın. Yapay zekanın kültürü ele geçirmesinin sonuçları ne olabilir?

Söz konusu araçların demokrasi için de tehdit teşkil edebileceğini söyleyen Harari, "Bu, özellikle demokrasiler için otoriter rejimlerden daha büyük tehdit çünkü demokrasiler kamuya açık konuşmaya dayanır" diye konuştu:

Demokrasi temelde konuşmadır. İnsanlar birbirleriyle konuşuyor. Konuşma yapay zeka tarafından devralınırsa demokrasi biter.

Bunun yanı sıra, yazara göre yapay zekanın totaliter rejimler tarafından kötü niyetli bir şekilde kullanılma ihtimali de var.

"Nazi rejimi trenler, elektrik ve radyolar gibi teknolojilere dayanıyordu. Yapay zeka gibi araçları yoktu" diyen Harari, şöyle ekledi:

21. yüzyılda yeni bir rejim çok daha güçlü araçlara sahip olacak. Yani sonuçları çok daha feci olabilir. İnsanlığın sağ çıkıp çıkamayacağını bilmiyorum.

Yazara göre konuyla ilgili bir başka tehlike de pek çok insanın gelecekteki iş piyasası için temel becerilerden yoksun kalarak kendilerini tamamen işsiz bırakması.

"Ekonomik sistemin milyonlarca insanı tamamen yararsız gördüğü bir noktaya gelebiliriz. Bunun korkunç psikolojik ve siyasi sonuçları olur" ifadelerini kullanan Harari, sözlerini şöyle sürdürdü:

Yapay zekanın tarihte kendi başına karar verebilen ilk teknoloji olduğunu anlamamız gerekiyor. Kendi kullanımına ilişkin kararlar alabilir. Aynı zamanda sizin ve benim hakkımızda da kararlar alabilir. Bu bir gelecek tahmini değil. Zaten oluyor.

Mektuba karşı çıkan ünlü isimler de var

Harari'nin imzasının da yer aldığı, bahsi geçen açık mektupta, şirketler arası yapay zeka yarışının "kontrolden çıktığı" ifadeleri yer alıyordu:

Son aylarda yapay zeka hiç kimsenin (yaratıcılarının bile) anlayamayacağı, tahmin edemeyeceği veya güvenle kontrol edemeyeceği, kontrolden çıkmış bir yarışa kilitlendi.

Öte yandan yapay zekaya yönelik endişelere katılmayan isimler de var. Örneğin Microsoft'un kurucusu Bill Gates, üretken yapay zeka araçlarını "devrim" diye niteliyor.

Çalışmaların duraklamasını talep eden mektubu eleştiren Gates, şu ifadeleri kullanmıştı:

Belirli bir gruptan duraklamalarını istemenin zorlukları çözeceğini düşünmüyorum.

YORUMLAR

Bu habere henüz yorum yapılmamış.İlk yorum yapan sen ol...

Yorum Yap

Bu Alan Boş Bırakılamaz
Bu Alan Boş Bırakılamaz
Yorum Yapma Şartlarını Kabul Etmediniz