Teknoloji Sektöründen Çağrı!

"Yapay zeka araştırmalarına, güvenlik önlemleri alınana dek ara verilsin"

  • | Son Güncelleme:
  • | Yeni Günaydın

Tesla’nın kurucusu ve Twitter’ın CEO’su Elon Musk ile bir grup teknoloji sektörü yöneticisi yazdıkları açık mektupta, OpenAI’ın yeni çıkarttığı GPT-4’ten daha güçlü Yapay Zeka (AI) teknolojilerinin geliştirilmesine 6 ay ara verilmesi çağrısı yaptı. Çağrıya gerekçe olarak, "topluma ve insanlığa yönelik potansiyel riskler" gösterildi.

Microsoft’un desteklediği OpenAI, yapay zeka programı GPT’nin (Üretken Ön İşlemeli Dönüştürücü) dördüncü sürümünü piyasaya çıkarttı.

Yeni teknoloji kullanıcılara, insan benzeri sohbetten, şarkı bestelemeye ve uzun belgeleri özetlemeye, birçok alanda uygulama vadediyor.

Kâr amacı gütmeyen Future of Life Institute (Yaşamın Geleceği Enstitüsü) adlı kuruluş tarafından yayımlanan ve Elon Musk dahil 1000'den fazla kişinin imza attığı mektupta, bu tür tasarımlar için güvenlik protokolleri geliştirilene, uygulanana ve bağımsız uzmanlarca denetlenene dek, ileri yapay zeka araştırmalarının durdurulması istendi.

Mektupta “Güçlü yapay zeka teknolojileri, pozitif etkileri olacağı ve risklerinin yönetilebileceği konusunda emin olduktan sonra geliştirilmeli” denildi.

OpenAI, yorum taleplerine henüz yanıt vermedi.

Mektupta, rekabetle gelişebilecek yapay zekasistemlerinin ekonomik ve siyasi çalkantılarla topluma ve medeniyete karşı oluşturabileceği potansiyel riskler detaylarıyla anlatıldı. Yapay zekasistemleri geliştirenlere, siyasi karar vericilerle ve düzenleyici kuruluşlarla birlikte çalışmaları çağrısı yapıldı.

Mektubun imzacıları arasında Stability CEO’su Emad Mostaque, Alhabet’in sahibi olduğu DeepMind’daki araştırmacılar, "Yapay zekanın babalarından biri" olarak tanımlanan Yoshua Bengio ve bu alandaki araştırmaların öncülerinden Stuart Russel da yer alıyor.

Avrupa Birliği’nin (AB) şeffaflık kayıtlarına göre Future of Life Enstitüsü, büyük ölçüde Musk Vakfı, Londra merkezli hayır kuruluşu Founders Pledge ve Silikon Vadisi Topluluğu Vakfı tarafından fonlanıyor.

AB’nin polis gücü Europol de, ChatGPT (sohbet robotu) gibi ileri yapay zeka sistemlerine karşı etik ve yasal endişeleri gündeme getiren kuruluşlar arasına katıldı. Europol, sistemin oltalama (phishing) girişimleri, dezenformasyon ve siber suçlarda potansiyel olarak kötüye kullanılabileceği uyarısı yaptı.

Tesla araçlardaki otomatik sürücü sistemlerinde yapay zeka kullanan Elon Musk, bu konudaki kaygılarını bir süredir dile getiriyor.

OpenAI’ın ChatGPT sistemi geçen yıl piyasaya çıkmasından bu yana, rakip firmalar da benzer sistemlerin geliştirilmesini ve şirketleri yapay zeka modellerine enterge etmeyi hızlandırdı.

'Yapay zeka reklamı yapılıyor'

OpenAI geçen hafta 10 kadar şirketle sistemin kullanılması için ortaklık yaptığını duyurmuş, ChatGP kullanıcılarının InstaCart’tan alışveriş yapabileceğini, ya da Expedia’dan uçak bileti ayırtabileceğini söylemişti.

Future of Life Enstitüsü’nün bir sözcüsü, OpenAI CEO’su Sam Altman’ın mektubu imzalamadığını söyledi.

Mektuba imza atan isimlerden New York Üniversitesi Profesörü Gary Marcus# Reuters haber ajansına yaptığı açıklamada, “Mektubun içeriği mükemmel değil ama ruhu doğru. Etkilerini daha iyi anlayana dek yavaşlamamız iyi olur. Sektördeki Büyük oyuncular ne yaptıkları konusunda giderek daha ketum bir tutum takınıyor ve bu da toplumun olası zararlara karşı kendisini savunmasını güçleştiriyor” dedi.

Karşıtları ise mektupta “Yapay zeka reklamı yapıldığını ve teknolojinin şu andaki potansiyelinin aşırı derecede abartıldığını” söylüyor.

Umea Üniversitesi’nden yapay zeka araştırmacısı Johanna Björklund, “Bu tür açıklamalar tantanayı büyütmek için, insanları kaygılandırmak için yapılıyor. Bence el frenini çekmeye gerek yok” dedi.

Björklund, araştırmalara ara vermek yerine, yapay zeka araştırmacılarının daha sıkı şeffaflık önlemlerine tabi olması gerektiğini belirtti ve “Yapay zeka araştırması yapıyorsanız, bunu nasıl yaptığınız konusunda daha şeffaf olmalısınız” diye konuştu.
 

YORUMLAR

Bu habere henüz yorum yapılmamış.İlk yorum yapan sen ol...

Yorum Yap

Bu Alan Boş Bırakılamaz
Bu Alan Boş Bırakılamaz
Yorum Yapma Şartlarını Kabul Etmediniz