Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

'Süper zeka' karşıtı mektup: Prens Harry ve Meghan Markle da imzaladı

Prens Harry ve Meghan Markle.
Prens Harry ve Meghan Markle. ©  AP Photo
© AP Photo
By Cagla Uren & AP
Yayınlanma Tarihi
Haberi paylaşın Yorumlar
Haberi paylaşın Close Button

Farklı sektörlerden bir dizi tanınmış isim, “süper zeka” seviyesindeki yapay zekaların geliştirilmesinin yasaklanmasını istedi.

Teknoloji, siyaset ve eğlence dünyasından dikkat çekici isimler, yapay zekaya karşı alışılmadık bir ittifak kurdu.

Prens Harry ve Meghan Markle, muhafazakâr yorumcular Steve Bannon ve Glenn Beck ile birlikte, insanlığı tehdit edebileceği gerekçesiyle “süper zeka” seviyesindeki yapay zekaların geliştirilmesinin yasaklanması çağrısında bulundu.

Bu çağrı, kâr amacı gütmeyen Future of Life Institute tarafından organize edildi ve doğrudan Google, OpenAI ve Meta gibi teknoloji devlerini hedef aldı.

Grubun yayımladığı 30 kelimelik kısa ama sert bildiride şu ifadeler yer aldı: “Süper zekanın geliştirilmesinin yasaklanmasını istiyoruz. Bu yasak, teknolojinin güvenli ve kontrol edilebilir şekilde geliştirilebileceğine dair geniş bilimsel uzlaşı ve güçlü kamuoyu desteği oluşana kadar kaldırılmamalıdır.”

Mektupta yapay zekanın sağlık, refah ve ekonomik büyüme gibi faydalar sağlayabileceği kabul ediliyor. Ancak aynı zamanda “insanların ekonomik açıdan değersizleşmesi, özgürlüklerin kaybı, ulusal güvenlik riskleri ve hatta insan soyunun tükenmesi” gibi tehlikelere de dikkat çekiliyor.

Beklenmedik ittifak

Mektubu imzalayanlar arasında politik yelpazenin her tarafından ve farklı sektörlerden isimler var.

Prens Harry, kişisel notunda şu ifadeyi kullandı: “Yapay zeka insanlığa hizmet etmeli, onun yerini almamalı. Gerçek ilerlemenin ölçüsü, ne kadar hızlı gittiğimiz değil, ne kadar bilgece yönlendirdiğimiz olacak. İkinci bir şans yok.”

Kaliforniya Üniversitesi’nden yapay zeka öncüsü Stuart Russell da açıklamasında şunu yazdı:

“Bu, klasik anlamda bir yasak ya da moratoryum değil. Sadece, kendi geliştiricilerinin bile insan neslini yok etme riski taşıdığını kabul ettiği bir teknoloji için yeterli güvenlik önlemleri alınması gerektiğini söylüyoruz.”

Mektubun imzacıları arasında yapay zeka alanının duayenleri Yoshua Bengio ve Geoffrey Hinton da yer alıyor. Her iki isim de bilgisayar biliminin en prestijli ödülü olan Turing Ödülü’nü paylaşmıştı. Hinton ayrıca geçen yıl Nobel Fizik Ödülü’nü kazanmıştı.

Destekçiler arasında ayrıca Apple’ın kurucu ortağı Steve Wozniak, İngiliz milyarder Richard Branson, ABD Genelkurmay eski Başkanı Mike Mullen, Demokrat dış politika uzmanı Susan Rice, İrlanda eski Cumhurbaşkanı Mary Robinson, oyuncular Stephen Fry ve Joseph Gordon-Levitt ile müzisyen will.i.am gibi isimler bulunuyor.

Yapay zeka balonu endişesi

Uzmanlara göre bu çağrı, “süper zeka”nın gerçekten mümkün olup olmadığı, ne kadar tehlikeli olabileceği ve şirketlerin bu teknolojiyi pazarlama uğruna abartıp abartmadığı konusundaki tartışmaları yeniden alevlendirecek.

Future of Life Institute Başkanı ve MIT profesörü Max Tegmark, “Daha önce bu tartışmalar genelde ‘bilim insanlarınin kendi arasında’ sürüyordu. Şimdi eleştirilerin ana akıma yayıldığını görüyoruz,” dedi.

Tegmark’ın ekibi, 2023’te de büyük teknoloji şirketlerine daha güçlü yapay zeka modellerinin geliştirilmesini geçici olarak durdurma çağrısı yapmış, ancak Elon Musk, OpenAI, Google ve diğer şirketler bu çağrıya uymamıştı.

Tegmark bu kez de büyük teknoloji şirketlerinin CEO’larına ulaştığını, ancak imza beklemediğini söyledi.

“Onları anlayabiliyorum. Hepsi bu yarışta geri kalmamak için baskı altında. Ama işte bu yüzden, süper zeka yarışını damgalamak ve hükümetin devreye girmesini sağlamak çok önemli.”

Erişilebilirlik kısayollarına git
Haberi paylaşın Yorumlar

Bu haberler de ilginizi çekebilir

Trump, 7 milyon Amerikalıyı sokağa döken protestolara yapay zeka ile yanıt verdi

Meta, ebeveynlerin gençlerin yapay zeka ile etkileşimlerini sınırlamasına izin verecek

Araştırma: Yapay zeka modellerinin övgü eğilimi, yanlış tıbbi bilgi yayma riski taşıyor