OpenAI, Meta, Anthropic ve DeepSeek’i de kapsayan 8 önde gelen yapay zekâ şirketinin yıkıcı riskleri önlemeye dair güvenilir planı yok. Yeni bir çalışma gösteriyor.
Dünyanın en büyük yapay zekâ (YZ) şirketleri, bu başarısızlıkların “felaket” düzeyinde riskler taşıdığı uyarısını yapan yeni bir değerlendirmeye göre, kendi güvenlik taahhütlerini yerine getiremiyor.
Rapor, YZ şirketlerinin sohbet botlarının psikolojik zarara yol açtığı, hatta bir “intihar koçu” gibi davrandığı iddialarıyla açılan davalar ve YZ destekli siber saldırılar haberleri arasında yayımlandı.
2025 Kış Yapay Zekâ Güvenlik Endeksi raporu, kâr amacı gütmeyen Future of Life Institute (FLI) tarafından yayımlandı ve ABD’li Anthropic, OpenAI, Google DeepMind, xAI ve Meta ile Çinli DeepSeek, Alibaba Cloud ve Z.ai dahil sekiz büyük YZ şirketini değerlendirdi.
Şirketler genel yapay zekâya (AGI) ve insan zekâsını aşan bir YZ türü olan süperzekâya doğru yarışırken, rapor YZ araçlarının felaket düzeyde kötüye kullanımını ya da kontrol kaybını önlemeye yönelik inandırıcı stratejilerin eksik olduğunu tespit etti.
Raporu inceleyen bağımsız analistler, hiçbir şirketin son derece yetenekli YZ sistemleri üzerinde insan kontrolünü sürdürmeye yönelik, test edilebilir bir plan ortaya koymadığını belirledi.
Kaliforniya Üniversitesi Berkeley’den bilgisayar bilimi profesörü Stuart Russell, YZ şirketlerinin insanüstü YZ inşa edebileceklerini iddia ettiğini, ancak hiçbirinin bu tür sistemlerde insan kontrolü kaybını nasıl önleyeceklerini göstermediğini söyledi.
"Kontrol kaybı riskini nükleer reaktör gereklilikleriyle uyumlu olarak yılda yüz milyonda bire indirebileceklerine dair kanıt arıyorum," diye yazdı Russell. "Bunun yerine riskin onda bir, beşte bir, hatta üçte bir olabileceğini kabul ediyorlar ve bu rakamları ne gerekçelendirebiliyor ne de iyileştirebiliyorlar."
Şirketler nasıl sıralandı?
Çalışma, şirketleri altı kritik alanda ölçtü: risk değerlendirmesi, mevcut zararlar, güvenlik çerçeveleri, varoluşsal güvenlik, yönetişim ve hesap verebilirlik ve bilgi paylaşımı.
Bazı kategorilerde ilerleme kaydedildiğini not ederken, bağımsız uzmanlar paneli uygulamanın hâlâ tutarsız olduğunu ve çoğu zaman ortaya çıkan küresel standartların gerektirdiği derinlikten yoksun kaldığını tespit etti.
Anthropic, OpenAI ve Google DeepMind, nispeten güçlü şeffaflıkları, kamuya açık güvenlik çerçeveleri ve teknik güvenlik araştırmalarına devam eden yatırımları nedeniyle övgü aldı. Yine de zayıf yönleri vardı.
Anthropic, insanı geliştirme denemelerini durdurması ve varsayılan olarak kullanıcı etkileşimleri üzerinden eğitime yönelmesi nedeniyle eleştirildi; uzmanlara göre bu karar, gizlilik korumalarını zayıflatıyor.
OpenAI, muğlak güvenlik eşikleri, eyalet düzeyindeki YZ güvenlik yasalarına karşı lobi faaliyetleri ve yetersiz bağımsız denetim nedeniyle eleştiri aldı.
Rapora göre Google DeepMind güvenlik çerçevesini iyileştirdi, ancak hâlâ şirketten mali karşılık alan dış değerlendiricilere güveniyor; bu da bağımsızlıklarını zedeliyor.
“Üç büyük şirket, son skandalların yol açtığı mevcut zararlar (psikolojik zarar, çocuk intiharları, Anthropic’in maruz kaldığı büyük bir hack saldırısı) nedeniyle etkilendi; üçünün de geliştirecek çok şeyi var,” diye konuştu FLI Başkanı ve Massachusetts Teknoloji Enstitüsü (MIT) profesörü Max Tegmark, Euronews Next’e.
Rapora göre geri kalan beş şirket düzensiz ama kayda değer ilerleme sergiledi. Ancak yine de hâlâ iyileştirme alanı olduğu uyarısı yapıldı.
Örneğin xAI, ilk yapılandırılmış güvenlik çerçevesini yayımladı; ancak değerlendirenler bunun dar kapsamlı olduğu ve açık risk azaltma tetikleyicilerinden yoksun bulunduğu uyarısında bulundu.
Z.ai, dış güvenlik değerlendirmelerinin sansürsüz olarak yayımlanmasına izin veren tek şirketti; ancak risk alanlarını, önlemleri ve karar alma süreçlerini net biçimde ortaya koyan tam güvenlik çerçevesini ve yönetişim yapısını kamuoyuyla paylaşması tavsiye edildi.
Meta, sonuç temelli eşikler içeren yeni bir öncü modeller güvenlik çerçevesi tanıttı; ancak değerlendirenler, yöntemlerin netleştirilmesi ve daha sağlam iç ve dış değerlendirme süreçlerinin paylaşılması gerektiğini söyledi.
DeepSeek, çalışanlarının şirket içi savunuculuğu nedeniyle takdir edildi ancak hâlâ temel güvenlik dokümantasyonundan yoksun.
Alibaba Cloud’un filigran gerekliliklerine ilişkin bağlayıcı ulusal standartlara katkıda bulunduğu tespit edildi; ancak doğruluk, adalet ve güvenlik ölçütlerindeki performansını iyileştirerek model sağlamlığını ve güvenilirliğini artırması gerektiği belirtildi.
Euronews Next, rapora yanıtlarını almak için şirketlerle iletişime geçti ancak yayın saatine kadar yanıt alamadı.
‘Sandviçlerden bile daha az düzenlenmiş’
“Umarım şirketlerin yalnızca itibarlarına dayanarak ölçek büyüttüğü dönemi geride bırakırız,” dedi Tegmark.
“Şirketlere AGI’yi nasıl kontrol edeceklerine dair planlarını sorduğumuzda, hiçbirinin bir planı yoktu,” diye ekledi.
Bu arada Meta gibi teknoloji şirketleri, en yeni YZ modellerini pazarlamak için “süperzekâ”yı bir moda sözcük olarak kullanıyor. Bu yıl Meta, büyük dil modeli (LLM) birimine Meta Superintelligence Labs adını verdi.
Tegmark, AGI ve süperzekâ etrafındaki tartışmalarda büyük bir değişim olduğunu söyledi. Teknoloji uzmanları bunu bir zamanlar önümüzdeki 100 yıl içinde gerçek dünyada mümkün olabilecek bir şey olarak tanımlarken, artık önümüzdeki birkaç yıl içinde gerçekleşebileceğini söylüyorlar.
“[ABD’de] YZ, sandviçlerden bile daha az düzenlenmiş; ayrıca hükümette bağlayıcı güvenlik standartlarına karşı lobi faaliyetleri sürüyor,” dedi.
Ancak Tegmark, bir yandan da AGI ve süperzekânın kontrol edilmemesine karşı eşi benzeri görülmemiş bir tepki olduğunu kaydetti.
Ekim ayında, YZ ve teknoloji liderlerinin de aralarında bulunduğu binlerce kamuoyu figürü, YZ şirketlerinin süperzekâ peşindeki yarışlarını yavaşlatmaları çağrısında bulundu.
FLI tarafından organize edilen dilekçe, siyasi yelpazenin her kesiminden imza topladı; eski ABD Başkanı Donald Trump’ın baş stratejisti Steve Bannon, eski Başkan Obama döneminde ABD Ulusal Güvenlik Danışmanı olan Susan Rice, dini liderler, çok sayıda eski siyasetçi ve önde gelen bilgisayar bilimcileri imzacılar arasındaydı.
“Bu insanların ortak noktası ne? Aynı metinde uzlaştılar. Trump’ın sert MAGA tabanından inanç liderlerine, sol kesimden emek hareketlerine kadar farklı grupların bir konuda hemfikir olması bence son derece önemli,” dedi Tegmark.
“Süperzekâ, tüm işleri robotlar aldığı için her bir çalışanı geçim sağlayamaz hâle getirebilir. Sağ kesim bunu ‘yardım’ olarak görürken, sol kesim ‘1984’vari bir hükümet’ olarak görecektir,” dedi. “Bence olan biten, meselenin bir kırılma noktasına gelmesi.”