Bu senaryo, denetimsiz yapay zeka gelişiminin 'süperzeka'ya yol açacağını ve bunun dünya liderlerini alt ettikten sonra insanlığı yok edeceğini öngörüyordu.
Önde gelen bir yapay zeka (AI) uzmanı, bu teknolojinin insanlığı yok edeceği yönündeki öngörülerine dair takvimini geri çekti.
OpenAI’ın eski çalışanlarından Daniel Kokotajlo, yapay zeka sistemlerinin kendi kendine kod yazabilecek ve böylece gelişimlerini hızlandırarak 'süperzekâ'ya ulaşabilecek noktaya gelmesinin, başlangıçta tahmin edilenden daha uzun süreceğini söyledi.
Kokotajlo, nisan ayında yayımladığı 'AI 2027' başlıklı senaryoyla büyük bir tartışma başlatmıştı. Bu senaryo, denetimsiz yapay zekâ gelişiminin 'süperzekâ'ya yol açacağını ve bunun dünya liderlerini alt ettikten sonra insanlığı yok edeceğini öngörüyordu.
AI 2027 kısa sürede hem destekçiler hem de sert eleştirmenler kazandı. ABD Başkan Yardımcısı JD Vance, geçen mayıs ayında Çin ile ABD arasındaki yapay zeka rekabetini değerlendirirken verdiği bir röportajda bu senaryoya dolaylı biçimde atıfta bulundu. New York Üniversitesi’nde emekli sinirbilim profesörü Gary Marcus ise metni bir 'kurgu eseri' olarak nitelendirdi ve bazı sonuçlarını 'tam anlamıyla bilim kurgu saçmalığı' diye tanımladı.
İnsanların çoğu bilişsel görevini yerine getirebilen, yani AGI (yapay genel zeka) olarak adlandırılan dönüştürücü yapay zekaya dair zaman çizelgeleri, yapay zekâ güvenliğiyle ilgilenen çevrelerin merkezinde yer alıyor. ChatGPT’nin 2022’de piyasaya sürülmesi, bu beklentileri ciddi biçimde hızlandırmış; yetkililer ve uzmanlar AGI’nin on yıllar ya da birkaç yıl içinde ortaya çıkabileceğini öne sürmüştü.
Kokotajlo ve ekibi, yapay zekanın 'tam otonom kodlama' yeteneğine 2027’de ulaşacağını öngörmüş, bunun 'en olası' senaryo olduğunu ancak ekip içinde daha uzun zaman çizelgeleri savunanlar bulunduğunu belirtmişti. Ancak son dönemde, AGI’nin gerçekten ne kadar yakın olduğu ve hatta bu kavramın ne ölçüde anlamlı olduğu yeniden sorgulanmaya başladı.
Uluslararası Yapay Zeka Güvenliği Raporu’nun yazarlarından ve yapay zekâ risk yönetimi uzmanı Malcolm Murray, “Pek çok kişi, yapay zeka performansının ne kadar dalgalı olduğunu fark ettikçe son bir yılda tahminlerini ileri tarihlere çekti,” dedi. Murray’e göre AI 2027 gibi bir senaryonun gerçekleşmesi için yapay zekânın, gerçek dünyanın karmaşıklıklarıyla başa çıkabilecek çok daha fazla pratik beceriye sahip olması gerekiyor.
Fransız yapay zekâ odaklı sivil toplum kuruluşu SaferAI’nin direktörü Henry Papadatos ise AGI kavramının eskisi kadar açıklayıcı olmadığını savundu: “Yapay zeka sistemleri satranç ve Go oynayan dar araçlarken AGI terimi anlamlıydı. Bugün ise zaten oldukça genel sistemlere sahibiz; bu yüzden kavram eskisi kadar net değil.”
Yeni senaryo: 2030 ortaları
AI 2027 senaryosu, yapay zeka ajanlarının 2027’ye kadar kodlamayı ve yapay zekâ Ar-Ge’sini tamamen otomatikleştireceği, bunun da bir ‘zekâ patlamasına’ yol açacağı varsayımına dayanıyordu. Bu süreçte yapay zekâların giderek daha zeki versiyonlarını yaratacağı ve olası senaryolardan birinde, 2030 ortalarında insanlığı yok ederek veri merkezleri ve güneş panelleri için yer açacağı öne sürülüyordu.
Ancak Kokotajlo ve ortakları, güncellenen değerlendirmelerinde otonom kodlama yeteneğinin 2027 yerine 2030’ların başında ortaya çıkmasının daha muhtemel olduğunu belirtti. Yeni öngörü, süperzeka için 2034 yılını ufuk noktası olarak işaret ediyor ve insanlığın yok edilmesine dair bir tarih içermiyor.
Kokotajlo, X’te yaptığı paylaşımda, “Gelişmeler AI 2027 senaryosundaki kadar hızlı ilerlemiyor. Zaten yayımladığımızda takvimimiz 2027’den uzundu, şimdi biraz daha da uzadı,” dedi.
Buna rağmen, yapay zekanın yapay zeka araştırması yapabilen sistemler haline gelmesi, büyük teknoloji şirketlerinin temel hedefleri arasında yer almayı sürdürüyor. OpenAI CEO’su Sam Altman, ekim ayında yaptığı açıklamada, Mart 2028’e kadar otomatik bir yapay zeka araştırmacısına sahip olmanın şirket içi bir hedef olduğunu söylemiş ancak “Bu hedefte tamamen başarısız da olabiliriz,” demişti.
Brüksel merkezli yapay zeka politika araştırmacısı Andrea Castagna ise hızlı AGI senaryolarının göz ardı ettiği pek çok karmaşıklık olduğuna dikkat çekti: “Askeri faaliyetlere odaklanan süperzeki bir bilgisayara sahip olmanız, onu son 20 yılda hazırlanmış stratejik belgelere kolayca entegre edebileceğiniz anlamına gelmiyor. Yapay zekayı ne kadar geliştirirsek, dünyanın bilim kurgudan çok daha karmaşık olduğunu o kadar net görüyoruz.”