Araştırmalar, yapay zeka modellerinin yine yapay zeka tarafından üretilmiş verileri 'tüketmeye' başladıklarında performanslarının bozulduğunu ortaya koyuyor.
Üretken yapay zekâ sistemleri, büyük ölçüde internetten gelişigüzel toplanmış, insanlar tarafından üretilmiş devasa bir içerik havuzuyla eğitiliyor. Ancak bilim insanları, bu modellerin bir gün bu insan yapımı içeriğin tükenmesi durumunda ne olacağını hâlâ tam olarak bilmiyor.
Endişe ise şu: Yapay zekâlar giderek kendi ürettikleri sentetik verilerle beslenmeye başlarsa, tehlikeli bir geri besleme döngüsü oluşabilir.
Futurism'e göre önceki araştırmalar, yapay zekâ modellerinin yine yapay zekâ tarafından üretilmiş verileri “tüketmeye” başladıklarında performanslarının bozulduğunu ortaya koyuyor. Bu süreçte sinir ağları giderek “lapalaşabiliyor”; yani modeller tekrar tekrar geri dönüştürülmüş içerik üzerinde çalıştıkça, çıktılar daha tekdüze, daha yavan ve sıklıkla bozuk hâle geliyor.
Bu teknik sorunların ötesinde, daha geniş bir soru da gündemde: Yapay zekâ sistemleri durmaksızın yapay zeka içeriği üretip tüketirken insan kültürüne ne olacak?
'Görsel asansör müziği'
Bu ay Patterns dergisinde yayımlanan dikkat çekici bir çalışma, bu sorulara yeni bir boyut kazandırıyor. Uluslararası bir araştırma ekibi, bir metinden-görüntüye üretim sistemiyle bir görüntüden-metine sistemi birbirine bağladı ve bu yapay zekâ zincirine aynı süreci tekrar tekrar uygulama talimatı verdi.
Sonuçta sistem zamanla “çok jenerik görünümlü” görüntülere yakınsadı. Araştırmacılar bu çıktıları “görsel asansör müziği” olarak adlandırdı.
'Kültürel durgunluk' riski
Rutgers Üniversitesi Bilgisayar Bilimleri Profesörü Ahmed Elgammal, çalışma üzerine The Conversation için kaleme aldığı yazıda, bunun üretken yapay zekânın “kültürel durgunluk” yarattığına dair bir başka güçlü kanıt olduğunu savunuyor.
Elgammal’a göre çalışma, “üretken yapay zekâ sistemlerinin, otonom ve tekrar tekrar kullanıldıklarında doğal olarak tek tipleşmeye eğilimli olduğunu” gösteriyor. Üstelik bu yakınsama, herhangi bir yeniden eğitim olmadan gerçekleşiyor: “Yeni veri eklenmedi. Hiçbir şey öğrenilmedi. Çöküş, yalnızca tekrar eden kullanımın sonucunda ortaya çıktı.”
Bu durum, internette hızla yayılan düşük kaliteli, yapay zeka üretimi içeriklerin insan yapımı içeriği gölgede bırakmaya başladığı bir dönemde özellikle endişe verici. Yapay zekâ savunucuları, yaratıcı kararların her zaman insanlara ait olacağını öne sürse de, algoritmaların şimdiden yapay zeka üretimi içerikleri öne çıkarmaya başladığı belirtiliyor. Bu da yaratıcılığı ciddi biçimde törpüleyebilecek bir tekdüzelik riski doğuruyor.
Elgammal, “Elbette risk sadece gelecekteki modellerin yapay zekâ içeriğiyle eğitilmesi değil,” diyor.
“Aynı zamanda, yapay zekâ aracılı kültürün şimdiden tanıdık olanı, kolay tarif edilebileni ve gelenekseli kayıracak biçimde filtrelenmesi.”
Çözüm: Normdan sapmayı teşvik etmek
Üretken yapay zekânın fotoğrafçılıktan tiyatroya kadar farklı yaratıcı alanları nasıl etkileyeceği ya da bu alanlarla barış içinde bir arada var olup olamayacağı henüz net değil. Ancak araştırmacılara göre tablo giderek daha kaygı verici hale geliyor.
Elgammal, kültürel durgunluğun önüne geçebilmek için yapay zekâ sistemlerinin “normlardan sapmaya” teşvik edilmesi ya da bunun için özel olarak tasarlanması gerektiğini savunuyor.
“Üretken yapay zekâ kültürü düzleştirmek yerine zenginleştirecekse, sistemlerin istatistiksel olarak ortalama çıktılara yakınsamaya direnecek şekilde tasarlanması gerekiyor. Bu çalışma çok net bir şeyi gösteriyor: Bu tür müdahaleler olmazsa, üretken yapay zekâ giderek vasat ve ilhamdan yoksun içeriklere sürüklenecek.”