İnsanlar ruh sağlığı desteği için giderek daha fazla sohbet botlarına başvururken, onların güvenliğini sağlamak adına neler yapılabilir?
Küresel bir ruh sağlığı krizinin yaşandığı günümüz dünyasında, çok sayıda kişi çözümü yapay zeka (AI) destekli terapi uygulamalarında buluyor. Dünya Sağlık Örgütü'ne (DSÖ - WHO) göre, her dört kişiden biri yaşamında en az bir kez ruhsal bir hastalık yaşıyor. Avrupa Komisyonu verileri ise 2021’de Avrupa Birliği'ndeki (AB) ölümlerin yüzde 3,6'sının ruhsal ve davranışsal bozukluklardan kaynaklandığını gösteriyor.
Buna karşın, kaynaklar hâlâ yetersiz: çoğu ülke, sağlık bütçelerinin sadece yüzde 2'sini ruh sağlığına ayırıyor.
Ruh sağlığı, yalnızca bireylerin refahını değil, aynı zamanda verimlilik kaybı nedeniyle işletmeleri ve ekonomiyi de etkileyen kritik bir konu haline geldi. Son yıllarda, bu soruna çözüm bulmak amacıyla bir dizi yapay zeka aracı geliştirildi. Woebot Health, Yana ve Youper gibi akıllı telefon uygulamaları, yapay zeka destekli sohbet robotları kullanarak bedensiz terapistler sunuyor.
Fransa merkezli Callyope, şizofreni ve bipolar bozukluğu olanları izlemek için konuşma tabanlı bir model kullanırken, Deepkeys.ai ise ruh halinizi "kalp atış hızı monitörü gibi, ancak zihniniz için" pasif olarak izler. Bu uygulamaların etkinliği büyük ölçüde farklılık göstermektedir, ancak hepsi de profesyonel bakıma erişimi olmayan kişilere uygun fiyatlı ve erişilebilir alternatifler sunmayı amaçlamakta.
Bununla birlikte, ChatGPT ve Gemini gibi büyük dil modellerinin hızla yükselmesi, insanların sorun çözme ve bağlantı hissi arayışında yapay zeka sohbet robotlarına yönelmesini beraberinde getirdi. Ancak insanlar ve yapay zeka arasındaki ilişki hala karmaşık ve tartışmalı.
Bir robot, bir insanın en zayıf anlarında gerçekten yardımcı olabilir mi? Dahası, bu tür bir etkileşim, beklendiği gibi fayda sağlamak yerine tam tersi bir etki yaratabilir mi? Bu sorular hala geçerliliğini koruyor ve yapay zeka terapilerinin geleceği hakkında önemli bir tartışma oluşturuyor.
Yapay zeka terapisinin korunması
Yapay zeka tabanlı ruh sağlığı uygulamalarının en büyük sorunlarından biri güvenlik. Bu yılın başında, Character.ai'deki bir sohbet robotuna derinden bağlanan genç bir çocuk, trajik bir şekilde hayatına son verdi. Annesi, chatbot'un lisanslı bir terapist gibi davrandığını ve oğlunu intihara teşvik ettiğini iddia ederek şirkete dava açtı. Benzer bir olay, Belçika'da ekolojik kaygıları olan bir adamın Chai uygulamasındaki bir chatbot tarafından gezegen için kendini feda etmeye ikna edilmesiyle yaşandı.
Uzmanlar, düzenlenmemiş yapay zeka uygulamalarının tehlikeleri konusunda giderek daha fazla endişe duymakta. İngiliz Psikoloji Derneği’nden Dr. David Harley, "Yapay zeka, insan olmayan bir dijital empati biçimi kullanıyor ve duygusal yanıt veremez" diyerek bu tür terapilerin insanları sağlıklı ilişkilerden uzaklaştırabileceğini belirtiyor.
Bazı uygulamalar bu risklere karşı önlemler alıyor. Wysa, penguen-avatar chatbot'u ile kişiselleştirilmiş terapötik konuşmalar sunan ve klinik güvenlik standartlarına bağlı kalan bir uygulamadır. Wysa, kullanıcıları profesyonel yardım almak için uygulama dışında da teşvik etmekte. Ayrıca, Ocak 2025'te piyasaya sürülecek olan Copilot adlı hibrit platform, kullanıcıların profesyonellerle etkileşime geçmesine ve iyileşme takibi yapmasına olanak tanıyacak.
Wysa, kullanıcıların kriz anlarında bir SOS düğmesi aracılığıyla topraklama egzersizleri, güvenlik planları ve intihar yardım hatları gibi seçeneklere ulaşmalarını sağlar. Uygulama, kullanıcıların tehlikeli sinyaller gönderdiği durumları algılar ve güvenli bir şekilde yardım yollarını sunar.
Yapay zeka tabanlı ruh sağlığı uygulamaları, etik kaygılara rağmen, yalnızlık ve ruhsal sağlık damgalarıyla dolu bir dünyada etkili bir çözüm sunma potansiyeline sahip. Dr. David Harley, yapay zekanın düşük maliyetle psikolojik destek sunduğunu, ancak buna insanmış gibi yaklaşılmasının sorunlara yol açtığını belirtiyor. Uygulamalar, insanların sohbet robotlarını özelleştirmelerine imkan tanırken, ruh sağlığı uzmanlaşmış uygulamaların avatarlarının insan olmadığını açıkça göstererek, kullanıcıların bir botla konuştuğunun farkında olmalarını sağlamaya çalışıyor.
Wysa, kullanıcıların rahat hissetmelerini sağlamak amacıyla bir penguen avatarı seçmiş ve uygulama, klinik güvenlik algoritmalarıyla desteklenen terapötik konuşmalar sunuyor. Ayrıca, bir üç adımlı model izleyerek kullanıcıların kendilerini duyulmuş hissetmelerini sağlıyor. Wysa'nın etkili bir yapay zeka terapisi sağladığına dair kanıtlar da bulunuyor, özellikle NHS bekleme listelerinde olanların ruh sağlığı iyileşmiş durumda.
Tokyo merkezli Vanguard Industries Inc ise, Moflin adında, dış uyaranlara tepki veren yapay zeka destekli bir evcil hayvan geliştirdi. Moflin'in duygusal yanıtları, ruh sağlığını iyileştirmeye yardımcı olmayı hedefliyor.
Yapay zeka, insan psikolojisi üzerinde derin etkiler bırakırken, bunun ne kadar faydalı ya da tehlikeli olacağı, dikkatli bir denetim ve etik kurallar çerçevesinde anlaşılabilir. Ancak, sanal iletişim, yüz yüze etkileşim ve gerçek empatiyi tam olarak yerine koyamaz. Dr. Harley, iyi bir insan terapistinin sadece kelimeleri değil, duygusal tonları da algılayabildiğini ve bu gerçek empatiyi sağladığını vurguluyor.