Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

Simülasyon teorisinin mucidinden insanlığa uyarı: 'Dört büyük sorun var'

Arşiv görüntüsü.
Arşiv görüntüsü. ©  AP Photo
© AP Photo
By Cagla Uren
Yayınlanma Tarihi
Paylaş Yorumlar
Paylaş Close Button

Simülasyon tartışmalarının yanı sıra, yapay zeka tartışmalarının en etkili isimlerinden biri haline gelen Nick Bostrom, bugün bu konuda daha karmaşık ve kısmen daha iyimser bir tablo çiziyor.

Oxford Üniversitesi'ndeki çalışmalarıyla tanınan filozof Nick Bostrom, 2003 yılında ortaya attığı “simülasyonda yaşıyor olabileceğimiz” teorisiyle büyük yankı uyandırmıştı. Aradan geçen 20 yılda yapay zekâ tartışmalarının en etkili isimlerinden biri haline gelen Bostrom, bugün bu konuda daha karmaşık ve kısmen daha iyimser bir tablo çiziyor.

REKLAM
REKLAM

Bostrom, özellikle son birkaç yıldaki gelişmelerin hızından etkilendiğini açıkça ifade ediyor. “Her şey şu anda oluyor,” diyen filozof, yapay zekâdaki ilerlemenin beklediğinden daha hızlı gerçekleştiğini söylüyor.

'AGI artık uzak bir ihtimal değil'

Bostrom’a göre yapay genel zekâ (insan seviyesinde yapay zekâ / AGI), artık teorik bir ihtimal olmaktan çıkıp somut bir hedef haline geldi. İlginç olan ise filozofun bu gelişmeye bakışının zamanla değişmesi.

Geçmişte yapay zekâyı insanlık için büyük bir tehdit olarak tanımlayan Bostrom, bugün daha temkinli bir yaklaşım sergiliyor.

“İnsan uygarlığı başka yollarla da kendini yok edebilir. Bu durumda süper zekâyı deneme şansımız bile olmayabilir,” diyerek risk perspektifini genişletiyor.

Futurism'e göre, Bostrom’un en dikkat çekici değişimi ise yapay zekânın toplumsal etkilerine bakışında görülüyor. Filozof, ileri düzey yapay zekânın toplum yapısını kökten değiştirebileceğini ve bunun olumlu sonuçlar doğurabileceğini savunuyor.

“Toplumun tamamen yeniden düzenlenmesi olumlu bir şey olabilir,” diyen Bostrom, teknolojinin yalnızca risk değil, aynı zamanda büyük bir fırsat sunduğunu da düşünüyor.

Dört büyük sorun: İnsanlık ne yapacak?

Bostrom’a göre insanlık, süper zekâya yaklaşırken dört temel sorunla yüzleşmek zorunda:

İlki, yapay zekânın insan değerleriyle uyumlu hale getirilmesi. İkincisi ise bu teknolojinin kötüye kullanılmasını önleyecek yönetim mekanizmalarının kurulması.

Ancak Bostrom’un dikkat çektiği diğer iki konu daha alışılmadık: “dijital zihinlerin” ahlaki statüsü ve gelecekte süper zekâların birbirleriyle çatışma ihtimali.

Bostrom, giderek daha karmaşık hale gelen yapay zekâ sistemlerinin bir noktada ahlaki statüye sahip olabileceğini öne sürüyor. Yani gelecekte bazı yapay zekâ sistemlerinin “hakları” olup olmayacağı tartışması gündeme gelebilir.

Bu fikir, bugün için spekülatif görünse de, yapay zekâ sistemlerinin giderek daha otonom hale gelmesiyle birlikte etik tartışmalarının merkezine yerleşebilir.

Süper zekâlar arası 'barış' ihtimali

Bostrom’un en sıra dışı senaryolarından biri ise farklı süper zekâların karşı karşıya gelmesi. Filozofa göre, eğer dünya dışı varlıklar ve onların gelişmiş yapay zekâ sistemleriyle karşılaşılırsa, insanlık bu sistemler arasında “arabulucu” rolü bile üstlenebilir.

Bu nedenle, geliştirilecek süper zekâların diğer olası “üst varlıklarla” uyumlu olacak şekilde tasarlanması gerektiğini savunuyor.

Bostrom’un en çarpıcı önerilerinden biri de ekonomi ve çalışma hayatına dair. Filozof, yapay zekâ sayesinde insanların çalışmak zorunda kalmadığı bir dünyayı hedef olarak görüyor.

“Hedef tam işsizlik,” diyen Bostrom, insanların değerini ve yaşam anlamını iş dışında tanımlamayı öğrenmesi gerektiğini savunuyor.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

Avrupa yapay zeka çağında sanayi devlerini koruyabilecek mi?

Çinli DeepSeek, merakla beklenen V4 yapay zeka modelini tanıttı

Meta 8 bin kişiyi yapay zeka için işten çıkardı, Microsoft gönüllü ayrılık paketi sundu