Yakın tarihli bir analize göre, Google’ın yapay zeka özetleri, her 10 sonucun 9’unda doğru ve güvenilir kaynaklara dayalı özetler sunuyor. Ancak bu oran, sistemin ölçeği düşünüldüğünde ciddi bir sorun.
Google’ın arama sonuçlarına entegre ettiği yapay zeka özetleri, ilk bakışta güvenilir ve kaynaklı içerikler sunuyor gibi görünse de doğruluk konusunda ciddi soru işaretleri yaratıyor.
Üretken yapay zeka sistemlerinin halüsinasyon eğilimi, yüksek enerji tüketimi ve olası psikolojik etkileri halihazırda tartışma konusuyken, Google'ın hayata geçirdiği bu özetler haber kurumları ve web sitelerinin trafiğinin sert şekilde düşmesine de olmuştu.
İlk kez The New York Times tarafından haberleştirilen yakın tarihli bir analize göre, Google’ın yapay zeka özetleri, her 10 sonucun 9’unda doğru ve güvenilir kaynaklara dayalı özetler sunuyor. Ancak bu oran, sistemin ölçeği düşünüldüğünde ciddi bir sorun anlamına geliyor.
Şirketin 2026'da 5 trilyondan fazla arama işleyeceği öngörülüyor. Popular Science'a göre bu hata payı her saat on milyonlarca, her dakika ise yüz binlerce hatalı yanıt anlamına geliyor.
Doğruluğu ölçmek bile zor
Analize göre bu özelliğin güvenilirliğini değerlendirmek de başlı başına bir sorun. Aynı arama sorgusu tekrarlandığında, ilk etapta yanlış olan bir yanıtın daha sonra doğru bir özetle değişebilmesi, sistemin öngörülemezliğini artırıyor.
Üstelik Google’ın bu özelliği arama sonuçlarının en üstüne yerleştirmesi, kullanıcıların bu içerikleri daha fazla görmesine ve doğru kabul etmesine yol açıyor.
Açık kaynak yapay zeka şirketi Oumi tarafından yapılan analiz, özetlerde kullanılan kaynakların da sorunlu olabileceğini ortaya koyuyor. Facebook ve Reddit gibi platformlar en çok referans verilen kaynaklar arasında yer alırken, hatalı yanıtlarda bu tür sitelere daha sık atıf yapıldığı görülüyor.
Bazı durumlarda ise sistem, güvenilir bir kaynağı yanlış yorumlayarak hatalı sonuç üretebiliyor.
Model gelişiyor ama sorun sürüyor
Oumi’nin yaptığı testlerde, Gemini 2 ve Gemini 3 modelleri karşılaştırıldı. Daha yeni olan Gemini 3, yüzde 91 doğruluk oranına ulaşırken, Gemini 2 yüzde 85’te kaldı. Bu sonuçlar modellerin geliştiğini gösterse de sorunun tamamen çözülmediğini ortaya koyuyor.
Daha dikkat çekici bir bulgu ise “temelsiz yanıt” oranındaki artış. Gemini 2’de yüzde 37 olan bu oran, Gemini 3’te yüzde 56’ya yükseldi. Bu tür yanıtlar, yapay zekanın verdiği bilgilerin kaynaklarla desteklenmediği anlamına geliyor ve kullanıcıların doğrulama yapmasını zorlaştırıyor.
Sistem manipülasyona açık
Uzmanlara göre, bu tür açıklar kötü niyetli kişiler tarafından kolayca istismar edilebilir. Yanlış bilgiler içeren içeriklerin yapay trafikle öne çıkarılması durumunda, Google’ın yapay zeka sistemi bu içerikleri güvenilir sanarak yanlış özetler üretebilir. Bu durum yanlış bilginin hızla yayılmasına zemin hazırlıyor.
Google ise eleştirileri reddediyor. Şirket sözcüsü Ned Adriance, gazeteye yaptığı açıklamada sistemin "spam" içeriklerin büyük çoğunluğunu engelleyen güvenlik ve sıralama mekanizmalarına dayandığını belirterek, örneklerin gerçek kullanıcı davranışlarını yansıtmadığını savundu.
Yapay zekaya aşırı güven riski
Araştırmalar, kullanıcıların yapay zeka yanıtlarına sorgulamadan güvenme eğiliminde olduğunu gösteriyor.
Yakın tarihli bir çalışmaya göre kullanıcıların yalnızca yüzde 8’i yapay zekadan gelen yanıtları kontrol ediyor. Başka bir deneyde ise kullanıcıların, cevabın yanlış olduğu bilinmesine rağmen vakaların yaklaşık yüzde 80’inde yapay zekayı dinlemeye devam ettiği görüldü. Araştırmacılar bu durumu “bilişsel teslimiyet” olarak tanımlıyor.
Büyük dil modellerinin kendinden emin ve otoriter bir dil kullanması, yanlış bilgilerin doğruymuş gibi sunulmasını da kolaylaştırıyor. Google'daki özetlerin sağladığı hız ve pratiklik de bu etkiyi daha da güçlendiriyor.
Uzmanlar, bu nedenle AI Overview gibi araçların en azından yakın gelecekte temkinle kullanılması gerektiği konusunda uyarıyor. Google’ın kendi uyarısında da "Yapay zeka hata yapabilir, bu yüzden yanıtları kontrol edin," deniyor.