Simülasyon tartışmalarının yanı sıra, yapay zeka tartışmalarının en etkili isimlerinden biri haline gelen Nick Bostrom, bugün bu konuda daha karmaşık ve kısmen daha iyimser bir tablo çiziyor.
Oxford Üniversitesi'ndeki çalışmalarıyla tanınan filozof Nick Bostrom, 2003 yılında ortaya attığı “simülasyonda yaşıyor olabileceğimiz” teorisiyle büyük yankı uyandırmıştı. Aradan geçen 20 yılda yapay zekâ tartışmalarının en etkili isimlerinden biri haline gelen Bostrom, bugün bu konuda daha karmaşık ve kısmen daha iyimser bir tablo çiziyor.
Bostrom, özellikle son birkaç yıldaki gelişmelerin hızından etkilendiğini açıkça ifade ediyor. “Her şey şu anda oluyor,” diyen filozof, yapay zekâdaki ilerlemenin beklediğinden daha hızlı gerçekleştiğini söylüyor.
'AGI artık uzak bir ihtimal değil'
Bostrom’a göre yapay genel zekâ (insan seviyesinde yapay zekâ / AGI), artık teorik bir ihtimal olmaktan çıkıp somut bir hedef haline geldi. İlginç olan ise filozofun bu gelişmeye bakışının zamanla değişmesi.
Geçmişte yapay zekâyı insanlık için büyük bir tehdit olarak tanımlayan Bostrom, bugün daha temkinli bir yaklaşım sergiliyor.
“İnsan uygarlığı başka yollarla da kendini yok edebilir. Bu durumda süper zekâyı deneme şansımız bile olmayabilir,” diyerek risk perspektifini genişletiyor.
Futurism'e göre, Bostrom’un en dikkat çekici değişimi ise yapay zekânın toplumsal etkilerine bakışında görülüyor. Filozof, ileri düzey yapay zekânın toplum yapısını kökten değiştirebileceğini ve bunun olumlu sonuçlar doğurabileceğini savunuyor.
“Toplumun tamamen yeniden düzenlenmesi olumlu bir şey olabilir,” diyen Bostrom, teknolojinin yalnızca risk değil, aynı zamanda büyük bir fırsat sunduğunu da düşünüyor.
Dört büyük sorun: İnsanlık ne yapacak?
Bostrom’a göre insanlık, süper zekâya yaklaşırken dört temel sorunla yüzleşmek zorunda:
İlki, yapay zekânın insan değerleriyle uyumlu hale getirilmesi. İkincisi ise bu teknolojinin kötüye kullanılmasını önleyecek yönetim mekanizmalarının kurulması.
Ancak Bostrom’un dikkat çektiği diğer iki konu daha alışılmadık: “dijital zihinlerin” ahlaki statüsü ve gelecekte süper zekâların birbirleriyle çatışma ihtimali.
Bostrom, giderek daha karmaşık hale gelen yapay zekâ sistemlerinin bir noktada ahlaki statüye sahip olabileceğini öne sürüyor. Yani gelecekte bazı yapay zekâ sistemlerinin “hakları” olup olmayacağı tartışması gündeme gelebilir.
Bu fikir, bugün için spekülatif görünse de, yapay zekâ sistemlerinin giderek daha otonom hale gelmesiyle birlikte etik tartışmalarının merkezine yerleşebilir.
Süper zekâlar arası 'barış' ihtimali
Bostrom’un en sıra dışı senaryolarından biri ise farklı süper zekâların karşı karşıya gelmesi. Filozofa göre, eğer dünya dışı varlıklar ve onların gelişmiş yapay zekâ sistemleriyle karşılaşılırsa, insanlık bu sistemler arasında “arabulucu” rolü bile üstlenebilir.
Bu nedenle, geliştirilecek süper zekâların diğer olası “üst varlıklarla” uyumlu olacak şekilde tasarlanması gerektiğini savunuyor.
Bostrom’un en çarpıcı önerilerinden biri de ekonomi ve çalışma hayatına dair. Filozof, yapay zekâ sayesinde insanların çalışmak zorunda kalmadığı bir dünyayı hedef olarak görüyor.
“Hedef tam işsizlik,” diyen Bostrom, insanların değerini ve yaşam anlamını iş dışında tanımlamayı öğrenmesi gerektiğini savunuyor.