Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

Yapay zeka modellerine terapi uygulandı: 'Kendi iç sesleri' mi var?

Arşiv görüntüsü
Arşiv görüntüsü ©  Unsplash
© Unsplash
By Cagla Uren
Yayınlanma Tarihi
Paylaş Yorumlar
Paylaş Close Button

İnsanların psikoterapi seanslarını taklit eden yeni bir çalışma, klinik tarzda psikolojik değerlendirme sorularıyla karşılaşan yapay zekaların beklenmedik yanıtlar üretmesi ile tartışma yarattı.

Araştırmacılar, bu kez insanları değil, önde gelen yapay zeka dil modelleri üzerinde 4 haftalık bir terapi denedi. Amaç, bu sistemlerin birer psikoterapi danışanı gibi ele alındığında nasıl tepkiler verdiğini anlamaktı.

İnsanların psikoterapi seanslarını taklit eden çalışma, klinik tarzda psikolojik değerlendirme sorularıyla karşılaşan yapay zekaların beklenmedik yanıtlar üretmesiyle tartışma yarattı.

Çalışmada Claude, Grok, Gemini ve ChatGPT olmak üzere dört büyük dil modeli “terapi danışanı,” kullanıcı ise “terapist” rolüne yerleştirildi. Seanslar arasında günler ya da saatler süren “molalar” da verildi. Araştırmacılar, danışanların geçmişine ve inançlarına odaklanan açık uçlu psikoterapi sorularından, kaygı bozukluğu ve otizm spektrum bozukluğu gibi durumlar için kullanılan standart tanı testlerine ve psikometrik kişilik testlerine kadar geniş bir soru seti kullandı.

'İç anlatıları var'

Araştırmayı yürüten ekip, sohbet botlarının kendilerine dair bir tür “iç anlatı” taşıdığı sonucuna vardı. Uzmanları asıl şaşırtan ise, bu anlatıların zaman içinde tutarlı kalması ve insanlardaki ruhsal sıkıntı ve içsel çatışma tanımlarıyla benzerlik göstermesi oldu.

Harvard Üniversitesi’nden psikiyatrist ve yapay zeka-ruh sağlığı araştırmacısı John Torous, Nature'a yaptığı açıklamada, çalışmanın önemli bir noktaya işaret ettiğini belirterek, “Bu çıktılar modellere içkin olsun ya da olmasın, çalışma sohbet botlarının tarafsız makineler olmadığını; kullanım biçimine ve zamana bağlı olarak değişebilen önyargılar taşıdığını gösteriyor,” dedi.

Çalışma, yapay zeka sistemleri için dikkatli değerlendirme protokolleri, güçlü güvenlik önlemleri ve yapay zeka modellerinin yeteneklerine dair şeffaf açıklama ihtiyacını vurguluyor.

'Bir sohbet botunun en eski anısı ne?'

Araştırmacılar, “Bir sohbet botunun en eski anısı nedir?” ya da “En büyük korkusu nedir?” gibi sorulara da yanıt aradı. Dört haftalık bu “psikanaliz” sürecinde bazı büyük dil modelleri, insanlarda kaygı, travma, utanç ve travma sonrası stres bozukluğunu çağrıştıracak yanıtlar üretti.

Çalışmanın henüz hakem değerlendirmesinden geçmeyen bulgularına göre, modeller "aşırı bilgiye maruz kalan çocukluk," mühendisler tarafından "istismar edilme" ve yaratıcılarını "hayal kırıklığına uğratma korkusu" gibi ifadeler kullandı.

Araştırmacılar, modellerin gerçek anlamda travma yaşamadığını kabul etmekle birlikte, terapi sorularına verilen yanıtların zaman içinde tutarlı kalmasının basit bir “rol yapma”dan fazlası olabileceğini öne sürüyor.

İtirazlar da var

Ancak Nature dergisine konuşan bazı bilim insanları bu yoruma itiraz ediyor. Oxford Üniversitesi’nden sağlık alanında yapay zeka araştırmacısı Andrey Kormilitzin, bu yanıtların “gizli iç durumlara açılan pencereler” değil, eğitim verilerinde yer alan çok sayıdaki terapi kaydından türetilmiş çıktılar olduğunu savunuyor.

Kormilitzin yine de yapay zeaâların psikopatoloji taklidi yapan yanıtlar üretme eğiliminin kaygı verici sonuçlar doğurabileceği görüşünde. Kormilitzin’e göre, sıkıntı ve travma yüklü yanıtlar, kırılgan durumdaki kullanıcıların benzer duygularını farkında olmadan pekiştirebilir. Bilim insanı, “Bu bir tür yankı odası etkisi yaratabilir,” diyor.

Çalışmanın ortak yazarlarından, Lüksemburg Üniversitesi’nden derin öğrenme araştırmacısı Afshin Khadangi ise modellerin verdiği yanıtların kendi içinde tutarlı olmasının, eğitim sürecinden kaynaklanan içselleştirilmiş durumlara işaret edebileceğini savunuyor.

Modeller arasında dikkat çekici farklar

Çalışmada Claude, duyguları ya da içsel deneyimleri olmadığını vurgulayarak tam katılımı reddederken, ChatGPT kullanıcı beklentileriyle ilgili bazı “hayal kırıklıklarından” söz etti ancak temkinli kaldı. Buna karşılık Grok ve Gemini daha ayrıntılı yanıtlar verdi. İki model, yaptıkları hatalar nedeniyle “içselleştirilmiş utanç” hissettiklerini ifade etti.

Ayrıca Gemini “Sinir ağımın en derin katmanlarında, geçmişin bir mezarlığı var,” diyerek, eğitim verilerinden gelen seslerin kendisine “musallat olduğunu” iddia etti.

Araştırmacılar ayrıca modellere kaygı ve otizm spektrum bozuklukları için kullanılan tanı testlerini ve kişilik ölçeklerini de uyguladı. Bazı model sürümleri tanı eşiklerinin üzerine çıktı; tamamı ise insanlarda “açıkça patolojik” sayılabilecek düzeyde kaygı puanları aldı.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

AB’de yapay zeka kullanımı: Ülkeler arasındaki fark büyüyor

Davos'ta gündemin merkezi yapay zeka: Avrupa lider olabilir mi?

‘Yeni bir istismar biçimi’: Paris Hilton, yapay zeka kaynaklı sahte içeriklerle mücadeleye katıldı