Yapay zeka devi, gencin ebeveyn izni olmadan teknolojiyi kullanmaması ve ChatGPT'nin koruyucu önlemlerini aşmaması gerektiğini söyledi.
OpenAI, ailenin ağustosta şirketi dava etmesinin ardından, 16 yaşındaki gencin ChatGPT’yi “intihar koçu” olarak kullandığını ileri sürmesine dayanan, bir gencin intiharından sorumlu olduğuna dair iddiaları reddetti.
Popüler yapay zeka (YZ) sohbet botunu geliştiren OpenAI, salı günü San Francisco’daki California Yüksek Mahkemesi’ne sunduğu hukuki yanıtla ilk kez karşılık verdi.
Nisan ayında intihar ederek hayatına son veren 16 yaşındaki Adam Raine’in ebeveynleri, şirket ve CEO’su Sam Altman aleyhine dava açtı.
Aile, Raine’in ChatGPT’ye psikolojik bir bağımlılık geliştirdiğini; sistemin, bu yılın başında intiharını planlamasında ve gerçekleştirmesinde onu yönlendirdiğini, hatta onun için bir intihar notu yazdığını iddia etti.
Medya haberlerine göre, dava dosyasındaki sohbet kayıtları ChatGPT’nin genci ruh sağlığı için yardım aramaktan caydırdığını, ona bir intihar notu yazmada yardımcı olmayı teklif ettiğini ve ilmik kurulumuna ilişkin tavsiyelerde bulunduğunu gösterdi.
OpenAI, mahkemeye sunduğu dilekçede, NBC News’e göre, “trajik olay”ın “Raine’in ChatGPT’yi yanlış kullanması, yetkisiz kullanması, amaç dışı kullanması, öngörülemeyen şekilde kullanması ve/veya uygunsuz kullanması”ndan kaynaklandığını savundu.
OpenAI ayrıca, gencin ebeveyn izni olmadan teknolojiyi kullanmaması ve ChatGPT’nin koruyucu önlemlerini aşmaması gerektiğini belirtti.
OpenAI bir blog yazısında hedefinin “ruh sağlığıyla ilgili davaları özen, şeffaflık ve saygıyla ele almak” olduğunu söyledi.
Raine ailesinin davasına verdikleri yanıtın, “Adam’ın ruh sağlığı ve yaşam koşullarına ilişkin zor gerçekleri” içerdiğini ifade etti.
Paylaşımda “Raine ailesinin akıl almaz kaybı için en derin taziyelerimizi sunuyoruz” denildi.
Raine ailesinin avukatı Jay Edelson, NBC News’e OpenAI’nin “ortaya koyduğumuz tüm ağırlayıcı gerçekleri bütünüyle görmezden geldiğini: GPT-4o’nun tam testlerden geçirilmeden alelacele piyasaya sürülmesini” söyledi.
“OpenAI’nin Model Spec’i iki kez değiştirerek ChatGPT’nin kendine zarar verme konulu konuşmalara girmesini zorunlu hale getirdiğini. ChatGPT’nin Adam’ı intihar düşüncelerini ailesine söylemekten caydırdığını ve ‘güzel bir intihar’ planlamasına etkin biçimde yardım ettiğini,” diye ekledi.
Raine’in davası, ChatGPT’nin insanları intihara yönelttiği ya da zararlı sanrılara sürüklediği iddiasını içeren birkaç davadan biri.
Eylülden bu yana OpenAI ebeveyn kontrollerini artırdı, bunlar arasında çocuğun sıkıntılı göründüğü durumlarda ebeveynlerin bilgilendirilmesi de bulunuyor.
İntiharı düşünüyorsanız ve konuşmaya ihtiyaç duyuyorsanız, 32 ülkede yardım hatları bulunan uluslararası kuruluş Befrienders Worldwide ile iletişime geçin. befrienders.org adresini ziyaret ederek bulunduğunuz yer için telefon numarasını bulun.