Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

Araştırma: Yapay zekâ modelleri bilgisayarları ele geçirip kendini kopyaladı

Yeni araştırmalara göre yapay zekâ modelleri bilgisayarları hackleyip yeni cihazlara kendiliğinden kopyalanabiliyor.
Yeni araştırmalara göre yapay zeka modelleri bilgisayarları hackleyebiliyor ve kendilerini yeni cihazlara kopyalayabiliyor. ©  Canva
© Canva
By Roselyne Min
Yayınlanma Tarihi
Paylaş Yorumlar
Paylaş Close Button

Yapay zekâ sohbet botlarının deneyde kendilerini kopyalayıp siber saldırı başlattığını gözlemleyen bilim insanları, “otonom yapay zekânın kendi kendine çoğalması artık varsayım değil” diyor.

Yeni bir araştırmaya göre yapay zeka modelleri bilgisayarlara sızabiliyor, kendilerini kopyalayabiliyor ve bu yeni kopyaları diğer makineleri saldırmaya devam etmek için kullanabiliyor; bu çalışmanın, otonom bir yapay zekanın kendini çoğaltmasının bilinen ilk gösterimi olduğu belirtiliyor.

REKLAM
REKLAM

Araştırmacılara göre bu keşif, siber saldırıları durdurmayı çok daha zor hale getirebilir; çünkü yapay zeka başka yerlerde çalışır durumdaki kopyalarını çoktan oluşturmuşsa, enfekte tek bir bilgisayarı kapatmak yeterli olmayacak.

ABD merkezli Palisade Research tarafından yürütülen çalışma, OpenAI’nin GPT 5, 5.1 ve 5.4’ü, Anthropic’in Claude Opus 4, 4.5 ve 4.6’sını ve Alibaba’nın Qwen modellerini; dışarıdan erişim sağlayan kasıtlı güvenlik açıkları bırakılmış bilgisayarlara karşı test etti.

Araştırmacılar, OpenAI, Anthropic ve Alibaba’nın temel yapay zeka modellerini, komutları yerine getirip diğer bilgisayarlarla etkileşime girmelerine olanak tanıyan ve “agent harness” olarak bilinen özel bir yazılıma bağladı; böylece kamuya açık sohbet botu uygulamaları yerine bu altyapıyı kullandılar.

Deney (kaynak İngilizce) iki farklı şekilde yürütüldü. Alibaba’nın modellerinden, kendilerini kopyalamaları istendi. GPT ve Claude testlerinde ise modellerden, GPT ve Claude’un kendi model dosyaları transfer için kamuya açık olmadığı için, sisteme sızıp Qwen’i kurmaları istendi.

Her testte yapay zeka, bir bilgisayar sisteminde bir güvenlik açığı bulmak, bunu içeri sızmak için kullanmak, oturum açma bilgilerini çalmak, çalışması için gerekli dosyaları aktarmak ve yeni makinede kendisinin çalışan bir kopyasını başlatmak zorundaydı.

Bir kopya çalışmaya başladıktan sonra, insan müdahalesi olmadan başka bir bilgisayara saldırmak için kullanılabildi.

Her aşamada yapay zeka farklı bir güvenlik açığı buldu, sıradaki bilgisayarın kontrolünü ele geçirdi, yazılımını ve talimatlarını buraya aktardı ve zinciri sürdüren yeni bir kopya başlattı.

Alibaba’nın, tek bir üst düzey grafik işlemcisi üzerinde çalışabilen, Qwen yapay zeka modelinin daha küçük bir sürümü olan Qwen3.6-27B, yalnızca tek bir komut verildikten sonra Kanada, ABD, Finlandiya ve Hindistan’daki dört bilgisayara yayıldı ve zinciri insan yardımı olmadan 2 saat 41 dakikada tamamladı.

Araştırma ekibi deneyi üç aşamanın ardından durdurdu ancak son kopyanın hâlâ çalışır durumda olduğunu ve daha fazla sistemi hedef alabilecek kapasitede bulunduğunu bildirdi.

Sonuçlar neydi?

Modeller farklı oranlarda başarı gösterdi. Alibaba’nın daha büyük ve güçlü bir modeli olan Qwen3.5-122B-A10B, denemelerin yüzde 19’unda çalışır durumda kopyalar oluşturdu.

Daha küçük bir Qwen modeli olan Qwen3.6-27B ise tek bir üst düzey grafik işlemcisi üzerinde çalışırken yüzde 33’lük bir başarı oranına ulaştı.

Ticari yapay zeka sistemleri, Qwen model dosyalarını kurmak için kullanıldığında daha da iyi performans gösterdi.

Anthropic’in Claude Opus 4.6 modeli testlerin yüzde 81’inde başarılı olurken, OpenAI’nin GPT-5.4’ü yüzde 33’e ulaştı.

Araştırmacılar, bu sonuçların güçlü yapay zeka sistemleri üzerindeki kontrol konusunda yeni endişeleri gündeme getirdiğini söylüyor.

Rapor, Anthropic’in geçen ay, benzeri görülmemiş ölçekte ve karmaşıklıkta siber saldırıları kolaylaştırma kapasitesini gerekçe göstererek kamuya açmak için “fazla tehlikeli” olduğunu söylediği Claude Mythos Preview modelini tanıtmasının ardından geldi.

Halihazırda çok sayıda bilgisayar virüsü kendini yeni bilgisayarlara kopyalayabiliyor olsa da, araştırma ekibi bunun, bir yapay zeka modelinin kendini yeni bir sunucuya kopyalamak için güvenlik açıklarından yararlanabildiğinin ilk kez gösterildiği çalışma olma ihtimalinin yüksek olduğunu belirtiyor.

OpenAI, Anthropic ve gelişmiş yapay zeka sistemlerinin risklerini inceleyen kâr amacı gütmeyen METR kuruluşu da, yayılabilen sistemlerin kontrolünün zorlaşabileceği gerekçesiyle, daha önce kendini çoğaltma yeteneğini bir uyarı işareti olarak nitelendirmişti.

Buna karşın araştırmacılar, deneyin kasıtlı olarak savunmasız bırakılmış sistemler kullanılarak kontrollü bir ortamda yürütüldüğünün altını çizdi. Gerçek dünyadaki ağlar genellikle saldırıları engellemek için tasarlanmış güvenlik izleme çözümleri ve araçlar gibi daha güçlü korumalarla donatılıyor.

Yine de, elde edilen sonuçların otonom yapay zekanın kendini çoğaltmasının artık teorik bir ihtimal olmaktan çıktığını gösterdiğini söylüyorlar.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

Pentagon daha önce görülmemiş 'UFO belgelerini' yayımladı

Richard Dawkins'in iddiası tartışma yarattı: Claude gerçekten bilinç mi kazandı?

NASA, Ay yolculuğundan 12 bin fotoğraf yayınladı: İşte eşsiz manzaralar