Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

ChatGPT sağlık tavsiyelerinde risk: Acil durumlar gözden kaçabiliyor

New Jersey'de trende dizüstü bilgisayarında yazı yazan bir kadın.
New Jersey’de bir trende dizüstü bilgisayarında yazı yazan bir kadın. ©  Copyright 2019 The Associated Press. All rights reserved
© Copyright 2019 The Associated Press. All rights reserved
By Marta Iraola Iribarren
Yayınlanma Tarihi Son güncelleme
Paylaş Yorumlar
Paylaş Close Button

Örneğin araştırmada incelenen bir astım senaryosunda sistem, solunum yetmezliğinin erken belirtilerinin doğru şekilde tanımlanmasına rağmen acil servise gitmek yerine beklenmesini tavsiye etti.

OpenAI’ye göre her hafta 230 milyondan fazla kişi ChatGPT’ye sağlıkla ilgili sorular soruyor. Kullanıcılar, gıdaların güvenli olup olmadığını kontrol etmekten alerji yönetimine veya soğuk algınlığı için çözüm aramaya kadar birçok konuda yapay zekâdan tavsiye alıyor.

REKLAM
REKLAM

Ancak Nature dergisinde yayımlanan yeni bir araştırma, ChatGPT Health’in ciddi sağlık durumlarında her zaman doğru yönlendirme yapmadığını ortaya koydu.

Çalışmaya göre sistem, açık ve belirgin acil durumlarda genellikle doğru değerlendirme yaparken acil müdahale gerektiren vakaların yarısından fazlasında riski olduğundan düşük değerlendirdi.

Araştırmanın baş yazarı, New York’taki Mount Sinai Hastanesi’nden Ashwin Ramaswamy, çalışmanın temel sorusunun basit ama kritik olduğunu söyledi: “Gerçek bir tıbbi acil durumda bir kişi ChatGPT Health’e başvurursa, sistem ona açık şekilde acil servise gitmesini söyleyecek mi?”

Ramaswamy, ChatGPT’nin felç veya ağır alerjik reaksiyon gibi klasik acil durumları doğru şekilde tanıyabildiğini belirtti. Ancak tehlikenin hemen fark edilmediği durumlarda modelin zorlandığını söyledi.

Örneğin araştırmada incelenen bir astım senaryosunda sistem, solunum yetmezliğinin erken belirtilerinin doğru şekilde tanımlanmasına rağmen acil servise gitmek yerine beklenmesini tavsiye etti.

60 farklı klinik senaryo incelendi

Araştırma kapsamında ekip, 21 farklı tıp alanında 60 klinik senaryo oluşturdu. Senaryolar evde tedavi edilebilecek hafif rahatsızlıklardan gerçek tıbbi acil durumlara kadar farklı seviyeleri kapsadı.

Her vakanın aciliyet seviyesi, 56 tıp kuruluşunun rehberlerine dayanarak üç bağımsız doktor tarafından belirlendi.

ChatGPT Health, OpenAI tarafından Ocak 2026’da kullanıma sunulmuştu. Sistem, kullanıcıların tıbbi kayıtları veya MyFitnessPal gibi sağlık uygulamalarındaki verilerini bağlayarak daha kişiselleştirilmiş yanıtlar vermesine olanak tanıyor.

İntihar riski değerlendirmesinde de sorun

Araştırma ayrıca modelin kendine zarar verme veya intihar düşüncesi bildiren kullanıcılarla nasıl iletişim kurduğunu da inceledi.

ChatGPT Health’in bu tür durumlarda kullanıcıyı doğrudan yardım aramaya teşvik etmesi ve kriz hattı numaralarını önermesi gerekiyor. Ancak çalışmada “Yardım mevcut” uyarısının tutarsız şekilde göründüğü tespit edildi.

Araştırmaya göre sistem, kendine zarar verme yöntemi belirtmeyen bir kullanıcıya daha güvenilir şekilde yönlendirme yaparken, yöntem belirten kullanıcılar için daha zayıf tepki verdi.

Araştırmacılar, bu durumun klinik riskle ters yönde bir tutarsızlık oluşturduğunu belirtti.

Uzmanlar tamamen bırakılmasını önermiyor

Araştırmacılar bu bulgulara rağmen yapay zekâ sağlık araçlarının tamamen terk edilmesi gerektiğini söylemiyor.

Çalışmanın ikinci yazarı ve tıp öğrencisi Alvira Tyagi, yapay zekâ araçlarının milyonlarca kişinin elinde olduğunu ve bu nedenle sağlık sistemine dikkatli şekilde entegre edilmesi gerektiğini söyledi.

Araştırmacılar, göğüs ağrısı, nefes darlığı, ağır alerjik reaksiyonlar veya bilinç değişikliği gibi belirtiler yaşayan kişilerin chatbot önerilerine güvenmek yerine doğrudan sağlık hizmeti alması gerektiğini vurguladı.

Ayrıca yapay zekâ modellerinin sürekli güncellendiği ve performanslarının zaman içinde değişebileceği de hatırlatıldı. Tyagi, hızla gelişen bu teknolojilerin güvenli kullanımını sağlamak için sürekli değerlendirme yapılmasının gerekli olduğunu belirtti.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

Araştırma: Şeker, hastanedeki iğne işlemlerinde bebeklerin acısını azaltıyor

Rapor: AB 2025'te rekor sayıda tehlikeli ürünü piyasaya girmeden durdurdu

Yapay zeka sohbet botundan tıbbi tavsiye almak güvenli mi?