Yapay zeka aracı Copilot'un, Microsoft kullanıcılarının 'gizli' olarak etiketlediği e-postalara eriştiği öğrenildi.
Microsoft, yapay zekâ tabanlı iş asistanı Copilot'un kullanıcıların "gizli" olarak işaretlenmiş e-postalarına yanlışlıkla eriştiğini ve bunları özetlediğini kabul etti.
Şirket, kurumsal güvenliği ön planda tutan Microsoft 365 Copilot Chat hizmetinde yaşanan bu hatayı düzeltmek için dünya çapında bir güncelleme yayınladı.
Hata, Microsoft 365 Copilot Chat aracının, kullanıcıların Outlook üzerindeki "Taslaklar" ve "Gönderilmiş Öğeler" klasörlerindeki mesajları ("gizli" olarak etiketlenmiş olsalar bile) işlemesiyle ortaya çıktı.
Skandalın boyutu ve Microsoft'un savunması
Copilot, normalde erişmemesi gereken "gizli" etiketli içerikleri analiz ederek kullanıcılara özetler sundu. Microsoft, bu hatanın bir veri sızıntısı olmadığını, sadece kullanıcının zaten görmeye yetkili olduğu ancak Copilot'un kapsamı dışında kalması gereken içeriklerin işlendiğini savundu.
Sorunun, veri paylaşımını engellemek için yapılandırılan "veri kaybı önleme" politikalarını bile devre dışı bıraktığı belirtiliyor.
Hata ilk olarak ocak ayında fark edildi ve İngiltere'deki NHS (Ulusal Sağlık Sistemi) çalışanları için hazırlanan bir destek panosunda paylaşıldı. NHS, hasta bilgilerinin tehlikeye girmediğini ve işlenen içeriklerin yalnızca e-postayı oluşturan kişilerde kaldığını açıkladı.
Uzmanlar uyarıyor: 'Veri sızıntısı kaçınılmaz'
Teknoloji dünyası bu olayı, yapay zekâ yarışındaki aşırı hızın bir yan etkisi olarak görüyor.
Gartner analisti Nader Henein, BBC'ye yaptığı açıklamada, şirketlerin yapay zekâ rüzgarına kapılarak güvenlik yönetişimi oturmadan bu araçları kullanmaya başladığını, bu tür "fiyaskoların" kaçınılmaz olduğunu belirtti.
Surrey Üniversitesi'nden siber güvenlik uzmanı Prof. Alan Woodward da bu tür araçların varsayılan olarak "kapalı" gelmesi ve kullanıcının isteğiyle açılması gerektiğini vurguladı.