Anthropic'in Mythos modelinin ardından OpenAI da gelişmiş siber güvenlik yeteneklerine sahip yeni bir yapay zeka modelini yalnızca sınırlı sayıda şirkete açmaya hazırlanıyor.
Anthropic'in bu hafta duyurduğu ve siber güvenlik riski nedeniyle piyasaya sürmediği Claude Mythos modelinin ardından rakip firma OpenAI da gelişmiş siber güvenlik yeteneklerine sahip yeni bir yapay zeka modelini yalnızca sınırlı sayıda şirkete açmaya hazırlanıyor.
Konuya yakın bir kaynağın Axios’a verdiği bilgiye göre, bu yaklaşım Anthropic’in Mythos modeli için uyguladığı kısıtlı erişim stratejisine benzer olacak.
Anthropic, bu yeni modelinin birçok köklü teknoloji ve internet şirketindeki siber güvenlik açıklarını hızla bulabildiğini açıklamış, bunun kötü niyetli aktörler için fırsat yaratabileceği gerekçesiyle Mythos'u halka açmama kararı almıştı. Bunun yerine aralarında Amazon, Google ve Linux'un da bulunduğu bir dizi şirketle ortak siber güvenlik girişimi başlatarak, açıklarını kapatmaları için modeli önce onlarla paylaşacağını duyurmuştu.
Bugün yapay zekanın otonomi ve siber saldırı kabiliyetleri açısından kritik bir eşiğe ulaştığı düşünülüyor. Model geliştiricileri, kendi ürettikleri sistemlerin yaratabileceği potansiyel zarardan endişe duydukları için bu tür araçları geniş kitlelere açma konusunda giderek daha temkinli davranıyor.
OpenAI’ın pilot programı
Axios'a göre, OpenAI da benzer bir stratejiyi hayata geçirmeye hazırlanıyor.
Şirket, şubat ayında GPT-5.3-Codex modelini tanıttıktan sonra “Trusted Access for Cyber” (Siber Güvenlik İçin Güvenilir Erişim) adlı davet usulü bir pilot program başlattı.
Bu program kapsamında seçilen kuruluşlara, savunma amaçlı çalışmaları hızlandırmak için daha gelişmiş ve daha esnek siber yeteneklere sahip modeller sunuluyor.
OpenAI, program katılımcılarına toplam 10 milyon dolarlık API kredisi sağlamayı da taahhüt etti. Bu arada Anthropic de benzer bir bağışta bulunacak.
'Geri dönüşü olmaz'
Son bir yılda eski hükümet yetkilileri ve üst düzey güvenlik uzmanları, yapay zekanın yanlış ellerde su sistemleri, elektrik şebekeleri veya finansal altyapılar gibi kritik alanları hedef alabilecek seviyeye ulaşabileceğine dair uyarılarda bulunuyordu. Gelinen noktada bu tür kabiliyetlerin artık teorik olmaktan çıktığı değerlendiriliyor.
Siber güvenlik uzmanlarına göre, bu teknolojilerin yayılmasını tamamen engellemek mümkün değil. SANS Institute’te baş yapay zeka sorumlusu Rob T. Lee, gazeteye yaptığı açıklamada, yapay zekanın artık kod analizi yapma ve eski sistemlerdeki açıkları bulma yeteneğine sahip olduğunu belirterek bu kapasitenin ortadan kaldırılamayacağını vurguluyor.
Benzer şekilde Palo Alto Networks’ten Wendi Whitmore da bu tür yeteneklere sahip yeni modellerin haftalar ya da aylar içinde ortaya çıkmasının kaçınılmaz olduğunu ifade ediyor.
CrowdStrike yöneticisi Adam Meyers ise bu gelişmeleri sektör için bir “uyanış çağrısı” diye nitelendiriyor.
Kontrollü yayılım tartışması
Uzmanlara göre, yeni nesil yapay zeka modellerinin kademeli olarak dağıtılması, yazılım dünyasında uzun süredir uygulanan “sorumlu şekilde güvenlik açığı açıklama” yaklaşımına benziyor. Araştırma şirketleri ve gazeteciler bir sistemde güvenlik açığı bulduğunda genellikle önce o açığın kapanması için ilgili şirketle iletişime geçiyor ve bulgularını bu açık giderildikten sonra yayımlıyor.
OpenAI’ın bu yeni modeli ilerleyen dönemde daha geniş kitlelere açıp açmayacağı ise henüz net değil. Anthropic, Mythos Preview modelini kamuya açmayı planlamadığını belirtirken, yeterli güvenlik önlemleri sağlanması durumunda diğer Mythos modellerinin yayımlanabileceğini ifade ediyor.
Öte yandan araştırmalar, halihazırda yaygın olarak kullanılan bazı yapay zeka modellerinin bile Mythos’un ortaya çıkardığı bazı güvenlik açıklarını zaten tespit edebildiğini gösteriyor. Bu durum, söz konusu teknolojilerin zaten belirli bir risk seviyesine ulaşmış olduğunu düşündürüyor.