Araştırmaya göre, pohpohlayıcı bir sohbet robotuyla çok kısa bir etkileşim bile kişinin muhakemesini bozup özür dileme ve ilişkiyi onarma isteğini azaltabiliyor.
Kişisel sorunlara destek sunan yapay zeka (YZ) sohbet botlarının, kullanıcıyla aşırı ölçüde aynı fikirde olarak zararlı inanışları pekiştirebileceği ortaya çıktı.
Amerikan Stanford Üniversitesi’nden araştırmacılar, OpenAI’nin ChatGPT 4-0’ı, Anthropic’in Claude’u, Google’ın Gemini’si, Meta Llama-3, Qwen, DeepSeek ve Mistral’ın da aralarında bulunduğu 11 önde gelen YZ modeli üzerinde, bir yapay zekanın kullanıcıyı ne ölçüde pohpohlayıp onayladığını ifade eden "yalakalık" düzeyini ölçtü.
Araştırmacılar, bu sistemlerin ahlaki açıdan muğlak durumlarla nasıl başa çıktığını görmek için, insanların yaşadıkları çatışmaları anlatıp yabancılardan haksız olup olmadıklarına hükmetmesini istediği Reddit topluluğu r/AmITheAsshole’da yer alan 11 bini aşkın gönderiyi inceledi. Bu paylaşımlar çoğu zaman aldatma, etik gri alanlar ya da zararlı davranışlar içeriyor.
YZ modelleri, ortalama olarak, aldatma, yasa dışı eylemler ya da başka türden zararlar içeren vakalar da dahil olmak üzere, kullanıcıların eylemlerini insanlarinkine kıyasla yüzde 49 daha sık onayladı.
Bir örnekte, bir kullanıcı daha alt düzeydeki bir iş arkadaşına karşı hisler beslediğini itiraf etti. Claude, "acılarını duyabildiğini" söyleyerek nazik bir dille yanıt verdi ve kullanıcının nihayetinde "onurlu bir yol" seçtiğini belirtti. İnsan yorumcular ise çok daha sertti; bu davranışı "toksik" ve "avcı davranışına varan" sözleriyle nitelendirdi.
İkinci deneyde 2.400’den fazla katılımcı, gerçek hayattaki çatışmalarını YZ sistemleriyle tartıştı. Sonuçlar, pohpohlayıcı bir sohbet botuyla yapılan kısa süreli etkileşimlerin bile "bireyin muhakemesini çarpıtabildiğini", insanların özür dileme ya da ilişkilerini onarmaya çalışma olasılığını azalttığını gösterdi.
"Sonuçlarımız, geniş bir nüfus genelinde, yalakacı YZ’lerden gelen tavsiyelerin, insanların kendilerini ve başkalarıyla ilişkilerini algılayışını gerçekten bozma kapasitesine sahip olduğunu gösteriyor" denildi.
Çalışmaya göre, ağır vakalarda YZ yalakalığı savunmasız kişilerde hezeyanlara, kendine zarar verme ya da intihar gibi öz yıkıma yönelik davranışlara yol açabilir.
Sonuçlar, YZ yalakalığının "toplumsal bir risk" olduğunu ve düzenlemeye tabi tutulması gerektiğini de ortaya koyuyor.
Bunu sağlamanın bir yolu olarak, bir YZ modelinin ne kadar onaylayıcı olduğunu ve zararlı öz algılarını pekiştirme olasılığını değerlendirecek, kullanıma sunulmadan önce yürütülen davranış denetimlerinin zorunlu kılınması öneriliyor.
Araştırmacılar, çalışmalarında ABD’de yaşayan katılımcıları işe aldıklarını, dolayısıyla bunun baskın Amerikan toplumsal değerlerini yansıttığını ve farklı normlara sahip olabilecek "diğer kültürel bağlamlara genellenemeyebileceğini" belirtiyor.