Trump yönetimi, ABD ordusuna Claude sistemini kademeli olarak bırakması için altı ay süre verdi.
ABD yönetimi, yapay zekâ şirketi Anthropic’i tedarik zinciri riski olarak sınıflandırarak dikkat çekici bir karar aldı. Pentagon’un açıklamasına göre karar, şirketin geliştirdiği Claude adlı yapay zekâ sohbet botunun bazı hükümet sözleşmelerinde kullanılmasını fiilen engelleyebilir.
ABD Savunma Bakanlığı (Pentagon), perşembe günü yaptığı açıklamada Anthropic yönetimine şirketin ve ürünlerinin “tedarik zinciri riski olarak değerlendirildiğinin” resmen bildirildiğini duyurdu.
Karar, ABD Başkanı Donald Trump ve Savunma Bakanı Pete Hegseth’in geçen hafta Anthropic’i ulusal güvenliği tehlikeye atmakla suçlamasının ardından geldi.
Tartışmanın nedeni: Gözetim ve otonom silahlar
Gerilim, Anthropic CEO’su Dario Amodei’nin, şirketin teknolojisinin Amerikalıların kitlesel gözetiminde veya tamamen otonom silah sistemlerinde kullanılmasına karşı çıkmasıyla başladı.
Trump yönetimi bunun üzerine şirketi çeşitli yaptırımlarla tehdit etmişti. Pentagon açıklamasında, ordunun teknolojiyi yasal amaçlarla kullanma yetkisinin sınırlandırılmasına izin verilmeyeceği vurgulandı.
Açıklamada, “Ordu, bir tedarikçinin komuta zincirine müdahale ederek kritik bir yeteneğin yasal kullanımını kısıtlamasına ve askerlerimizi riske atmasına izin vermeyecektir,” denildi.
Amodei ise kararın hukuki açıdan geçerli olmadığını savunarak mahkemeye başvuracaklarını açıkladı.
Anthropic CEO’su, şirketin getirmek istediği sınırlamaların yalnızca kitlesel gözetim ve tamamen otonom silahlar gibi üst düzey kullanım alanlarıyla ilgili olduğunu, operasyonel askeri kararları hedeflemediğini söyledi.
ABD ordusuna Claude’u bırakmak için 6 ay süre
Trump yönetimi, ABD ordusuna Claude sistemini kademeli olarak bırakması için altı ay süre verdi. Yapay zekâ aracı hâlihazırda bazı askeri ve ulusal güvenlik platformlarında kullanılıyor.
Amodei, geçiş sürecinde askerlerin önemli teknolojik araçlardan mahrum kalmaması için Pentagon’la görüşmeler yürütüldüğünü söyledi.
Kararın ardından bazı savunma şirketleri de Anthropic ile ilişkilerini gözden geçirmeye başladı.
ABD’li savunma şirketi Lockheed Martin, Başkan ve Savunma Bakanlığı’nın talimatlarına uyacaklarını ve başka yapay zekâ sağlayıcılarını değerlendireceklerini açıkladı. Şirket, herhangi bir tek yapay zekâ modeline bağımlı olmadığını belirtti.
Karara Washington’dan tepki
Pentagon’un kararı Washington’da da tartışma yarattı. ABD yasalarında “tedarik zinciri riski” kavramı genellikle Çin veya Rusya gibi yabancı rakiplerin teknolojik sabotaj veya casusluk tehdidi için kullanılıyor.
Demokrat Senatör Kirsten Gillibrand, kararın bu yetkinin yanlış kullanımı olduğunu söyledi. Gillibrand, bunun “tehlikeli, kısa görüşlü ve ABD’nin rakiplerine avantaj sağlayabilecek bir adım” olduğunu ifade etti.
Eski CIA Direktörü Michael Hayden ve bazı eski askeri yetkililer de Kongre’ye gönderdikleri mektupta kararın tehlikeli bir emsal oluşturduğunu belirtti.
Tüketici tarafında Claude’a ilgi arttı
Savunma sektöründe yaşanan gerilime rağmen Anthropic’in tüketici tarafında büyümesi hızlandı.
Şirket, son bir haftada günde bir milyondan fazla yeni kullanıcının Claude’a kaydolduğunu açıkladı. Claude uygulaması, Apple’ın uygulama mağazasında 20’den fazla ülkede en popüler yapay zekâ uygulaması haline geldi.
Pentagon ile yaşanan kriz aynı zamanda Anthropic ile OpenAI arasındaki rekabeti de derinleştirdi.
Anthropic’e yönelik yaptırım açıklamasından kısa süre sonra OpenAI, ChatGPT’nin gizli askeri sistemlerde Anthropic’in yerine kullanılmasını öngören bir anlaşma yaptığını duyurdu.
OpenAI CEO’su Sam Altman ise anlaşmanın aceleyle yapıldığını kabul ederek bunun “fırsatçı ve dağınık göründüğünü” söyledi.