OpenAI’nin misyonunda neredeyse on yılda neler değişti? Şirketin yeni “ilkeler” belgesine yakından bakıyoruz.
OpenAI, neredeyse on yıl öncesine kıyasla yapay genel zeka (AGI) konusunda daha az kaygılı ve şirketin yeni misyon bildirimine göre önceliğini teknolojisini daha geniş ölçekte yaymaya veriyor.
Pazar günü OpenAI, şirketin gelecekte teknolojisini nasıl kullanacağını ortaya koyan “Our Principles” (İlkelerimiz) başlıklı belgesinin güncellenmiş halini yayımladı.
OpenAI henüz emekleme aşamasında, kar amacı gütmeyen bir yapay zeka (AI) araştırma kuruluşuyken, neredeyse on yıl önce öncelik verdiği hedeflerle bu yeni ilke seti arasında bazı temel farklılıklar bulunuyor.
Yapay genel zekaya verilen önemin azalması
2018 (kaynak İngilizce)’de OpenAI, teknolojilerinin insan zekasını aşacağı fikrini ifade eden yapay genel süperzeka (AGI) geliştirmeye sıkı sıkıya odaklanmıştı; bugün ise bu hedef, şirketin daha geniş kapsamlı yapay zeka yayılımının yalnızca bir parçası.
Belgenin her iki versiyonu da OpenAI’nin misyonunun bu teknolojinin “tüm insanlığa fayda sağlamasını” güvence altına almak olduğunu söylüyor; ancak 2018 tarihli versiyon, bunun güvenli ve yararlı biçimde inşa edilmesi gerektiğini açıkça vurguluyor.
“Asli yükümlülüğümüz insanlığa karşıdır,” ifadesi yer alıyor. “Misyonumuzu yerine getirmek için önemli kaynakları seferber etmemiz gerekeceğini öngörüyoruz, ancak çalışanlarımız ve paydaşlarımız arasında geniş çaplı faydayı baltalayabilecek çıkar çatışmalarını en aza indirmek için daima titizlikle hareket edeceğiz.”
2026 tarihli versiyon (kaynak İngilizce) ise güvenli sistemler inşa etmeye devam etmesi gerektiğini belirtirken, toplumun da “yapay zekanın her bir yeni yetenek düzeyiyle yüzleşmesi, onu anlaması, entegre etmesi ve ilerlemenin en iyi yolunu birlikte bulması” gerektiğini söylüyor.
CEO ve kurucu ortak Sam Altman’a göre 2026’da ilerlemenin yolu, herkese erişim sağlayarak yapay zekayı her düzeyde demokratikleştirmek ve teknolojinin “gücün birkaç elde toplanması”na yol açması fikrine direnmekten geçiyor.
2026 tarihli ilke belgesinde ayrıca, OpenAI’nin hükümetler, uluslararası kurumlar ve diğer AGI girişimleriyle birlikte çalışarak, faaliyetlerinde daha ileri gitmeden önce “ciddi uyum, güvenlik veya toplumsal sorunları yeterince çözmesi” gerektiği de belirtiliyor.
Buna örnek olarak, yeni patojenler oluşturabilecek modellerle mücadelede ChatGPT’den yararlanmak ya da kritik altyapılara siber dayanıklı modeller entegre etmek gösterilebilir.
Altman, bu ayın başında kişisel blogunda OpenAI’nin AGI’ya daha az vurgu yapmasının nedenlerine dair bazı ipuçları verdi.
AGI’nin, “insanların çılgınca şeyler yapmasına neden olan” bir “iktidar yüzüğü” etkisi yarattığını yazan Altman, buna karşı koymanın tek yolunun “teknolojiyi geniş kitlelerle paylaşmaya yönelmek ve bu yüzüğe kimsenin tek başına sahip olmaması” olduğunu savundu.
OpenAI artık güvenlik odaklı bir ürün lehine geri çekilmeyecek
2018’de OpenAI, AGI geliştirme sürecinin “yeterli güvenlik önlemlerine zaman bırakmayan rekabetçi bir yarışa” dönüştüğünden endişe duyduğunu açıklamıştı.
Şirket, AGI’ya daha çok yaklaşan, “değerleriyle uyumlu ve güvenliği önceleyen” herhangi bir projeye destek vermek için kendi modellerini geliştirmeyi durdurma taahhüdünde bulunmuştu.
2018 tarihli belgede, “Ayrıntıları daha sonra netleştireceğiz… ancak tetikleyici koşullara tipik bir örnek, önümüzdeki iki yıl içinde başarı şansının yarıdan fazla olması olabilir,” ifadeleri yer alıyordu.
2026’da ise daha büyük bir amaç uğruna kenara çekilmekten hiç söz edilmiyor. Bunun yerine belge, OpenAI’nin “birkaç yıl öncesine kıyasla dünyada çok daha büyük bir güç haline geldiğini” kabul ediyor ve işletme ilkelerinin ne zaman ve nasıl değişebileceği konusunda şeffaf olma sözü veriyor.
Şirket, Anthropic’in de aralarında bulunduğu birkaç rakiple ciddi bir rekabet içinde.
Şubat ayında Anthropic, ABD Başkanı Donald Trump yönetimine ordunun kullanımı için yapay zekasına sınırsız erişim izni vermeyi reddetti; bunun üzerine şirket tedarik zinciri riski olarak damgalandı ve mart ayında federal görevlilere Anthropic’in yapay zeka asistanı Claude’u kullanmayı bırakmaları emredildi.
28 Şubat’ta OpenAI boşluğu doldurmak üzere devreye girerek Savaş Bakanlığı ile bir anlaşma imzaladı; bu anlaşma, bazı kullanıcıların ChatGPT’yi boykot edip Claude’u tercih etmesine yol açtı.
Anthropic’in değeri de bu ay 800 milyar dolar (696 milyar avro) olarak belirlendi; bu tutar OpenAI ile aynı seviyede.
Toplum genelini hedef alan muğlak çağrılar
2026 tarihli belgede OpenAI, dünyanın yapay zekaya daha iyi uyum sağlayabilmesi için toplumda bir dizi değişiklik yapılması çağrısında bulunuyor.
Belgede, “Şu anda hayal etmesi güç düzeyde yaygın refahın olduğu bir dünya tasavvur ediyoruz. Bilimkurguda yalnızca hayal etmeye cesaret ettiğimiz pek çok şey gerçeğe dönüşebilir ve çoğu insan, bugün çoğumuzun yaşayabildiğinden daha anlamlı hayatlar sürdürebilir,” deniliyor.
Ancak bu geleceğin garanti olmadığı da vurgulanıyor; belgeye göre yapay zeka ya “süperzekayı kullanan ve kontrol eden az sayıda şirketin elinde toplanabilir” ya da “insanlar tarafından, dağıtık şekilde sahiplenilebilir”.
İlke belgesi ayrıca OpenAI’nin son dönemde dile getirdiği bazı politika önerilerini de tekrarlıyor; örneğin hükümetlerin “yeni ekonomik modeller” üzerinde düşünmesini ve yapay zeka altyapısının maliyetlerini düşürecek yeni teknolojiler geliştirmesini istiyor.
Belgede, “Bugün tuhaf görünen birçok adımımız – gelirimiz görece küçükken devasa miktarda işlem gücü satın almamız gibi – evrensel refahın mümkün olduğu bir geleceğe dair temel inancımızdan kaynaklanıyor,” ifadeleri yer alıyor.