Anthropic ve OpenAI, yapay zeka sistemleri için güvenlik önlemleri geliştirmek üzere kimyasallar ve patlayıcılar konusunda uzmanlar işe alıyor.
Yapay zeka (AI) şirketleri Anthropic ve OpenAI, her iki şirketin de iş ilanlarına göre, teknolojilerinin kötüye kullanılmasını önlemek için silahlar ve patlayıcılar konusunda uzmanlar işe almayı planlıyor.
Anthropic, LinkedIn'de yayımladığı bir ilanla (kaynak İngilizce), yapay zeka sistemlerinin bu alanlardaki hassas bilgileri nasıl işleyeceğini şekillendirerek teknolojisinin “felaket boyutunda kötüye kullanılmasını” önlemek için kimyasal silahlar ve patlamalar konusunda politika uzmanı aradığını duyurdu.
Anthropic'te işe alınacak kişi, yapay zeka modellerinin kimyasal silahlar ve patlayıcılarla ilgili komutlara nasıl tepki vereceğine ilişkin güvenlik sınırlarını tasarlayıp denetleyecek. Ayrıca Anthropic'in silahlar ve patlamalarla ilgili istemlerde tespit ettiği her türlü tırmanma halinde “hızlı müdahale” süreçlerini yürütecek.
Adayların “kimyasal silahlar ve/veya patlayıcı savunmaları” alanında en az beş yıllık deneyime ve “radyolojik yayma düzenekleri” ya da bilinen adıyla kirli bombalar konusunda bilgi sahibi olması gerekiyor. Görev, şirket yönetiminin “yüksek riskli lansmanlar sırasında güvenebileceği” yeni risk değerlendirmeleri tasarlamayı (kaynak İngilizce) da içeriyor.
OpenAI'nin bu ayın başlarında yayımladığı iş ilanında ise şirket, “en ileri düzey yapay zeka modelleriyle bağlantılı felaket niteliğindeki riskleri” izleyen Hazırlıklılık ekibine katılacak araştırmacılar aradığını belirtti.
Ayrıca, bir kişiye “öncü riskleri tanımlama, modelleme ve öngörme” konusunda ana sorumluluk verecek bir Tehdit Modellemesi Uzmanı için de ilan verdi; bu kişi, yapay zekadan kaynaklanan öncü risklere yaklaşımda önceliklendirme, odak ve gerekçelendirme konularında teknik, yönetişim ve politika perspektiflerini bir araya getiren “merkezi bir bağlantı noktası” işlevi görecek.
Euronews Next, iş ilanlarıyla ilgili olarak Anthropic ve OpenAI ile iletişime geçti ancak haber yayına hazırlanırken henüz yanıt alamadı.
Bu işe alımlar, Anthropic'in ABD hükümetiyle yaşadığı hukuki ihtilafın ardından geliyor. Hükümet, şirketi bir “tedarik zinciri riski” olarak sınıflandırmıştı; bu etiket, devletin sözleşmeleri engellemesine veya kurumlara şirketle çalışmamaları talimatını vermesine olanak tanıyor.
Gerilim 24 Şubat'ta, Savaş Bakanlığı'nın (DOW) Anthropic'in Claude sohbet botuna sınırsız erişim talep etmesiyle başladı.
CEO Dario Amodei, yaptığı açıklamada (kaynak İngilizce) Savaş Bakanlığı ile yapılacak sözleşmelerin, Claude'un kitlesel yurtiçi gözetim amacıyla kullanılmasını ya da tamamen otonom silah sistemlerine entegre edilmesini içermemesi gerektiğini söyledi.
Anthropic ile yaşanan gerilimin hemen ardından OpenAI, yapay zekasını gizli ortamlarda devreye sokmak üzere Savaş Bakanlığı (DOW) ile bir anlaşma imzaladı. Şirket, anlaşmanın kitlesel gözetim ya da otonom silah sistemleri için kullanımın kesin biçimde yasaklanması gibi katı kırmızı çizgiler içerdiğini açıkladı.