Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

Anthropic'in yeni yapay zeka aracı, siber güvenlik paniğine yol açtı

Arşiv görüntüsü
Arşiv görüntüsü ©  AP Photo
© AP Photo
By Cagla Uren
Yayınlanma Tarihi
Paylaş Yorumlar
Paylaş Close Button

Anthropic'in 'Claude Code Security' adını verdiği yeni araç, siber güvenlik şirketlerinin değer kaybıyla sonuçlandı.

Yapay zeka araştırma şirketi Anthropic’in, yazılım kodlarındaki açıkları bulan yeni "vulnerability scanner" (güvenlik açığı tarayıcısı) aracını tanıtması, siber güvenlik hisselerinde sert düşüşlere neden oldu.

REKLAM
REKLAM

Ancak sektör devleri ve analistler, yapay zekanın mevcut güvenlik platformlarını tamamen "gereksiz" kılacağı senaryosuna karşı çıkıyor.

Anthropic'in "Claude Code Security" adını verdiği bu araç, karmaşık yazılım açıklarını insan gibi "akıl yürüterek" tespit ediyor.

Geleneksel tarayıcılar sadece bilinen kalıpları ararken, Claude verinin uygulama içinde nasıl hareket ettiğini anlayarak karmaşık kusurları yakalamaya çalışıyor.

Piyasa tepkisi

Bu duyuru, yatırımcılarda "Geleneksel güvenlik şirketlerine artık gerek kalmayacak mı?" korkusu yarattı:

Siber güvenlik firmalarından JFrog, yüzde 24,6 ile en sert düşüşü yaşarken, Okta da yüzde 8,3 değer kaybetti. CrowdStrike yüzde 7,32 düştü ve Palo Alto Networks de yüzde 1,1’lik daha hafif bir gerileme yaşadı.

Siber güvenlik devlerinden yanıt

American Banker'ın analizine göre, sektörün dev isimleri, piyasadaki bu sarsıntının "temel bir yanlış anlamadan" kaynaklandığı görüşünde.

CrowdStrike CEO'su George Kurtz, Claude’a bizzat "Benim şirketimin yerini alacak bir araç yapabilir misin?" diye sorduğunu ve yapay zekanın "Hayır" yanıtını verdiğini söyledi. Kurtz, "Claude kod yazım aşamasında proaktif güvenlik sağlar; biz ise canlı ağlarda ve cihazlarda tehditleri gerçek zamanlı durdururuz," dedi.

Palo Alto Networks CEO'su Nikesh Arora, yapay zekanın henüz yüzde 99,9 doğruluk oranına ulaşamadığını, bu seviyeye gelene kadar güvenliğin yerini alamayacağını savundu. Ayrıca, güvenlik şirketlerinin elindeki devasa "gerçek zamanlı saldırı verisine" yapay zeka modellerinin erişimi olmadığını vurguladı.

Bankalar için uyarı

Bu tartışma, özellikle bankacılık sektörü için kritik bir soruyu beraberinde getiriyor: tüm güvenliği birkaç yapay zeka modeline emanet etmek güvenli olacak mı?

ABD Hazine Bakanlığı, finans sisteminin sadece birkaç yapay zeka sağlayıcısına (Anthropic, OpenAI, Google vb.) aşırı bağımlı hale gelmesinin risk yaratacağı konusunda uyarıyor. Tek bir yapay zeka sağlayıcısında yaşanacak bir kesinti veya hata, tüm finansal sistemi savunmasız bırakabilir.

Bank of America ve Morningstar gibi kuruluşların analistleri ise piyasadaki satışı bir "aşırı tepki" olarak görüyor. Buna göre, yapay zeka araçları kırılgan ve hata payı yüksek. Oysa siber güvenlikte "yanlış negatif" (bir saldırıyı kaçırmak) felaketle sonuçlanır.

Ayrıca güvenlik şirketleri her gün petabaytlarca canlı veri işliyor. Dil modelleri ise sadece eğitildikleri statik verilerle sınırlı.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

Yapay zekâ felaketi mi: 2028'e kadar sosyal ve ekonomik çalkantı uyarısı

Yapay zekada soğuk savaş: ABD'li firmalar Çin'i milyarlık AR-GE hırsızlığıyla suçluyor

Yapay zeka şirketleri işbirliğine zorlanıyor olabilir: Pentagon, Anthropic'i tehdit mi etti?