Araştırmacılar, tamamen uydurma bir hastalık yaratarak bunu internete yerleştirdi ve kısa süre içinde büyük yapay zeka sistemlerinin bu hastalığı gerçekmiş gibi kullanmaya başladığını gözlemledi.
İsveç’te Gothenburg Üniversitesi bünyesinde yürütülen dikkat çekici bir deney, yapay zekanın (AI) sağlık alanında ne kadar kolay yanıltılabildiğini gösteriyor.
Araştırmacılar, tamamen uydurma bir hastalık yaratarak bunu internete yerleştirdi ve kısa süre içinde büyük yapay zeka sistemlerinin bu hastalığı gerçekmiş gibi kullanmaya başladığını gözlemledi.
“Bixonimania” adı verilen bu hayali hastalık, aslında hiçbir tıbbi kaynakta yer almıyor. Araştırmacı Almira Osmanovic Thunström ve ekibi, 2024 yılında bu hastalıkla ilgili iki sahte bilimsel çalışma hazırlayarak çevrimiçi platformlara yükledi. Amaç, büyük dil modellerinin (LLM) yanlış bilgiyi nasıl işlediğini test etmekti. Sonuç ise beklenenden çok daha çarpıcı oldu: Yapay zeka sistemleri bu uydurma hastalığı kısa sürede gerçek bir tıbbi durum gibi anlatmaya başladı.
Sohbet botları yanlış bilgiyi hızla yaydı
Deneyin ardından ChatGPT, Google Gemini ve Microsoft Copilot gibi popüler yapay zeka araçları, kullanıcıların göz kaşıntısı ve ekran maruziyeti gibi belirtilerle ilgili sorularına “bixonimania” yanıtını vermeye başladı. Hatta bazı sistemler hastalığın görülme sıklığına dair sayısal veriler sunarak kullanıcıları doktora gitmeye yönlendirdi.
Daha da dikkat çekici olan, bu sahte çalışmaların bazı akademik yayınlarda referans olarak kullanılmaya başlanması oldu. Bu durum, bazı araştırmacıların yapay zeka tarafından önerilen kaynakları kontrol etmeden kullandığını ortaya koydu.
Sahte makalelerde bile uyarılar vardı
Araştırmacılar aslında sahte içeriğin anlaşılması için birçok ipucu bırakmıştı.
Makalelerde hayali üniversiteler, kurgusal fon sağlayıcılar ve hatta “USS Enterprise” gibi bilimkurgu referansları yer aldı. Hatta metinlerde “Bu çalışma tamamen uydurmadır” gibi açık ifadeler bile bulunuyordu. Buna rağmen hem yapay zeka sistemleri hem de bazı insanlar bu içeriği gerçek kabul etti.
Sorun yapay zekadan daha büyük
Uzmanlara göre bu deney, yalnızca yapay zekanın değil, genel bilgi ekosisteminin kırılganlığını ortaya koyuyor. University College London araştırmacılarından Alex Ruani, bu durumu “yanlış bilginin nasıl yayıldığına dair ders niteliğinde” olarak tanımlıyor.
Araştırmacılar, yapay zeka modellerinin özellikle “bilimsel formatta” yazılmış içeriklere daha fazla güvenme eğiliminde olduğunu belirtiyor. Yani metin ne kadar akademik görünüyorsa, yanlış bilgiyi üretme ve yayma riski o kadar artıyor.
Sağlık alanında risk daha büyük
Uzmanlara göre en büyük tehlike, bu tür yanlış bilgilerin sağlık tavsiyesi olarak sunulması. Çünkü kullanıcılar yapay zekadan aldıkları bilgiyi gerçek kabul ederek yanlış kararlar verebilir.
Araştırmacılar, özellikle sağlık alanında kullanılan yapay zeka sistemlerinin daha sıkı testlerden geçirilmesi gerektiğini vurguluyor. Ayrıca bu tür sistemlerin sürekli denetlenmesini sağlayacak standart değerlendirme mekanizmalarına ihtiyaç olduğu belirtiliyor.