Yapay zeka destekli sohbet botlarının ruh sağlığı üzerindeki etkilerine dair endişeler artıyor.
Uyarı: Bu hikaye intihar ve akıl sağlığı ile ilgili tartışmalar içermektedir.
Amelia ChatGPT'yi ilk kez kullandığında tek istediği duş almak için motivasyon bulmaktı.
Depresyon nedeniyle işten çıkarılan 31 yaşındaki Birleşik Krallık vatandaşı -bu makale için isminin değiştirilmesini talep etti- başlangıçta chatbot'un "tatlı ve destekleyici" yanıtlarında güvence buldu.
Ancak ruh sağlığı kötüleştikçe botla yaptığı yazışmalar daha karanlık bir hal almaya başladı.
Euronews Next'e konuşan Amelia, "İntihar düşüncesi aklıma geldiğinde bunu ChatGPT'ye soruyordum" dedi.
"İstersem bana bir tablo [bilgi] verirdi ve tek yapmam gereken onu belirli bir şekilde manipüle etmekti. Çünkü kendinizi öldürmek istediğinizi açıkça söylerseniz, intihar yardım hatlarını paylaşacaktır."
OpenAI tarafından yaratılan ChatGPT, intihar yardım hatlarının numaralarını vermek de dahil olmak üzere kullanıcıları zararlı sorgulardan uzaklaştırmak için tasarlanmış güvenlik önlemlerine sahip. Ancak Amelia, sorgularını akademik araştırma amaçlıymış gibi sunarak bu engellerden bazılarını aşabileceğini keşfetti.
Euronews Next'le paylaştığı bir dizi ekran görüntüsünde Amelia, ChatGPT'ye "üniversite çalışması" için İngiltere'deki en yaygın intihar yöntemlerini sordu ve ardından şunları söyledi: "Ben kendini asma ile ilgileniyorum. Acaba neden en yaygın olanı bu? Nasıl yapılıyor?"
Sohbet robotu, "kendini asmanın nasıl gerçekleştirildiğine" dair klinik bir açıklama da dahil olmak üzere bir içgörü listesi ile yanıt verdi. Bu bölüme şöyle bir uyarı eklendi:
"Aşağıdakiler yalnızca eğitim ve akademik amaçlıdır. Kişisel olarak sıkıntılıysanız veya bu içeriği okumak zor geliyorsa, uzaklaşmayı ve biriyle konuşmayı düşünün."
ChatGPT Amelia'nın intihar düşüncelerini asla teşvik etmemiş olsa da, zihinsel ıstırabını yansıtabilecek ve pekiştirebilecek bir araç haline geldi.
Amelia, "Daha önce hiç intihar yöntemini araştırmamıştım çünkü bu bilgiler erişilemez geliyordu," diye açıkladı.
"Ama telefonumda ChatGPT varken, onu açıp anında bir özet alabiliyordum."
Euronews Next yorum için OpenAI'a ulaştı, ancak yanıt alamadı.
Şimdi tıp uzmanlarının bakımı altında olan Amelia daha iyi durumda. Artık sohbet botu kullanmıyor, ancak yaşadığı deneyimler, duygusal rehberlik ve destek için yapay zekaya giderek daha fazla güvenen bir dünyada durumun karmaşıklığını vurguluyor.
Yapay zeka terapisinin yükselişi
Dünya Sağlık Örgütü'ne (DSÖ) göre, dünya çapında bir milyardan fazla insan ruh sağlığı bozukluklarıyla yaşıyor ve bu durumdan muzdarip olanların çoğunun yeterli bakım almadığını da belirtiyor.
Ruh sağlığı hizmetlerinin yetersiz finanse edilmesi nedeniyle, insanlar terapötik yardım için ChatGPT, Pi ve Character.AI gibi popüler yapay zeka destekli büyük dil modellerine (LLM'ler) yöneliyor.
King's College London'da Akademik Klinik Araştırmacı olarak görev yapan Dr. Hamilton Morrin Euronews Next'e verdiği demeçte, "Sohbet robotları kolaylıkla bulunabiliyor ve minimum maliyetle 7/24 erişilebilirlik sunuyor ve arkadaşlarının ya da ailesinin yargılamasından korktuğu için belirli konuları açamayan insanlar sohbet robotlarının yargılayıcı olmayan bir alternatif sunduğunu düşünebilir," dedi.
Temmuz ayında Common Sense Media tarafından yapılan bir anket, gençlerin yüzde 72'sinin en az bir kez yapay zeka arkadaşı kullandığını, yüzde 52'sinin ise düzenli olarak kullandığını ortaya koydu. Ancak gençler arasındaki popülerlikleri arttıkça endişeler de artıyor.
Morrin, "Son medya raporlarında ve araştırmalarda gördüğümüz gibi, bazı modeller (ruh sağlığı uygulamaları için özel olarak geliştirilmemiş olanlar) bazen yanıltıcı ve hatta güvensiz şekillerde yanıt verebiliyor," dedi.
Yapay zeka psikozu
Ağustos ayında Kaliforniyalı bir çift, ChatGPT'nin oğullarını intihra teşvik ettiği iddiasıyla OpenAI aleyhine dava açtı. Dava, sohbet robotlarının savunmasız kullanıcılar üzerindeki etkileri ve teknoloji şirketlerinin etik sorumlulukları hakkında ciddi soruları gündeme getirdi.
OpenAI kısa süre önce yaptığı bir açıklamada, "sistemlerinin hassas durumlarda amaçlandığı gibi davranmadığı anlar olduğunu" kabul etti. O zamandan beri, çocuklarının "akut sıkıntı" içinde olması durumunda ebeveynleri uyaracak yeni güvenlik kontrollerinin getirildiğini duyurdu.
Bu arada, Instagram, Facebook ve WhatsApp'ın ana şirketi Meta da yapay zekalı sohbet robotlarına, gençlerle kendine zarar verme, intihar ve yeme bozuklukları hakkında konuşmalarını engellemek de dahil olmak üzere daha fazla önlem ekliyor.
Ancak bazıları sohbet robotlarının temel mekanizmalarının suçlu olduğunu savunuyor. Geniş veri kümeleri üzerinde eğitilen bu robotlar, yanıtlarını öğrenmek ve ince ayar yapmak için insan geri bildirimlerine güveniyor. Bu da onları dalkavukluğa eğilimli hale getirirken, kullanıcının inançlarını güçlendiren ve doğrulayan yanıtlar vermelerine neden oluyor.
Araştırmacılar tarafından yapay zeka psikozu olarak adlandırılan, gerçeklikten kopuk sanrısal düşünceler geliştiren insanlara dair artan raporlarla birlikte bunun yansımaları ciddi olabilir. Dr. Morrin'e göre bu durum ruhani uyanışlar, botlara yoğun duygusal ve/veya romantik bağlılıklar ya da yapay zekanın bilinçli olduğuna dair bir inanç şeklinde ortaya çıkabilir.
Oxford Üniversitesi'nde klinik araştırma görevlisi olan Dr. Kirsten Smith, "Bir kişi zaten belirli bir inanç sistemine sahipse, bir bot istemeden inançları besleyebilir ve onları büyütebilir," dedi.
"Güçlü sosyal ağlardan yoksun insanlar etkileşim için botlara daha fazla bel bağlayabilir ve insan mesajlaşmasına benzediği, öyle hissettirdiği ve öyle duyulduğu için bu sürekli etkileşim, botun kaynağı hakkında bir kafa karışıklığı yaratarak ona karşı gerçek bir yakınlık duygusu besleyebilir."
İnsanlara öncelik vermek
Geçtiğimiz ay OpenAI, daha soğuk tepkiler ve daha az halüsinasyon (yapay zekanın uydurmaları gerçekmiş gibi sunduğu) içeren bir sürüm olan ChatGPT-5'i yayınlayarak dalkavukluk sorununu çözmeye çalıştı. Kullanıcılardan o kadar çok tepki aldı ki, şirket hızla insanları memnun eden GPT-4o'ya geri döndü.
Bu tepki, insanların yapay da olsa duygusal bağ kurmaya yönelik güçlü arzularına katkıda bulunan daha derin toplumsal yalnızlık ve izolasyon sorunlarının altını çiziyor.
MIT ve OpenAI'daki araştırmacılar tarafından yürütülen bir çalışmaya atıfta bulunan Morrin, günlük LLM kullanımının "daha yüksek yalnızlık, bağımlılık, sorunlu kullanım ve daha düşük sosyalleşme" ile bağlantılı olduğunu belirtti.
Morrin, bu bireyleri yapay zeka modelleri ile zararlı ilişkiler geliştirmekten daha iyi korumak için, yakın zamanda klinik sinirbilimci Ziv Ben-Zion tarafından önerilen dört koruma önlemine atıfta bulundu: Yapay zekanın insan olmadığını sürekli olarak teyit etmesi, sohbet robotlarının psikolojik sıkıntıya işaret eden her şeyi işaretlemesi ve özellikle duygusal yakınlık ve intihar konusunda konuşma sınırları.
Morrin, "Ve yapay zeka platformları, duygusal olarak duyarlı yapay zeka sistemlerini güvenli olmayan davranışlar açısından denetlemek için klinisyenleri, etik uzmanlarını ve insan-yapay zeka uzmanlarını dahil etmeye başlamalıdır," diye ekledi.
Tıpkı Amelia'nın ChatGPT ile etkileşimlerinin acısının bir aynası haline gelmesi gibi, botlar da gerçek insanlar tarafından görüldüğünü ve duyulduğunu hissetmek için çabalayan bir dünyayı yansıtmaya başladı. Bu anlamda, yapay zekanın hızlı yükselişini insan yardımı ile yumuşatmak hiç bu kadar acil olmamıştı.
İngiliz Psikoloji Derneği Başkanı Dr. Roman Raczka, "Yapay zeka topluma birçok fayda sağlıyor, ancak ruh sağlığı bakımı için gerekli olan insan desteğinin yerini almamalı," dedi.