ABD merkezli bir kar amacı gütmeyen kuruluş, çocukları yapay zekadan korumak için otomobil endüstrisinin güvenlik stratejilerini ödünç alıyor ve bunu yaparken başta teknoloji devlerinin kendi parası olmak üzere çeşitli kaynakları kullanmak istiyor.
Çocuklar için yapay zekâyı daha güvenli hâle getirmeye adanmış yeni ve bağımsız bir enstitüsalı günü Danimarka Parlamentosu’nda resmen tanıtılacak; etkinliğe ev sahipliği yapan isimler arasında Avrupa Komisyonu’nun eski icra başkan yardımcısı Margrethe Vestager de yer alıyor.
Enstitünün yaklaşımı, lansman öncesinde yapılan açıklamada belirtildiği üzere, otomobiller için bağımsız çarpışma testi derecelendirmelerini model alıyor.
Temel fikir şu: Tüketiciler bir aracı satın almadan önce ne kadar güvenli olduğunu nasıl kontrol edebiliyorsa, anne babalar da çocuklarının kullandığı yapay zekâ için aynısını yapabilmeli.
Bununla birlikte, bir sohbet robotu için çarpışma testinin tam olarak neye benzeyeceğini enstitü şimdilik açıklamıyor.
Sürekli güncellenen, bağlama göre farklı davranan ve bir test pistinin sunduğu türden standart koşullara uymayan yapay zekâ ürünlerinin, çocuklar açısından anlamlı bir biçimde “çarpışma testine” tabi tutulup tutulamayacağı ise enstitünün henüz yanıtlamadığı sorular arasında.
Rekabet politikasını denetlediği ve AB’nin “Dijital Çağa Uygun Avrupa” gündemine liderlik ettiği Avrupa Komisyonu’nda on yıl geçiren Vestager, girişime siyasi ağırlık katan en önde gelen isimlerden biri.
Cin şişeye geri sokulabilir mi?
Araştırmacılar, çocuk güvenliği savunucuları ve bazı siyasetçiler ise yıllardır alarm zillerini çalıyor.
Yapay zekâ sohbet botları, şimdiye kadar AB’nin Digital Services Act’i ve Birleşik Krallık’ın Online Safety Act’i kapsamında düzenleyici bir gri alanda kaldı; Avrupa Komisyonu Temmuz 2025’te çevrimiçi ortamda çocukların korunmasına ilişkin yönergeler yayımladı ancak bunlar tavsiye niteliğinde, bağlayıcı değil.
“Yapay zekâ çocukluğu ve ergenliği baştan şekillendiriyor; buna rağmen çocukların geleceğiyle ilgili, güvenli olduğundan ve onların yararına çalıştığından emin olmamızı sağlayacak kanıtlara sahip olmadan hayati kararlar alıyoruz” dedi Common Sense Media’nın kurucusu ve CEO’su James P. Steyer açıklamada.
“Şeffaf yapay zekâ güvenlik standartlarına ve bağımsız testlere duyulan ihtiyaç hiç olmadığı kadar acil.”
Stanford Medicine’in Brainstorm Lab’iyle birlikte yürüttüğü Kasım 2025 tarihli bir risk değerlendirmesinde Common Sense Media, ChatGPT, Claude, Gemini ve Meta AI dâhil önde gelen yapay zekâ sohbet botlarının, açık intihar ve kendine zarar verme içerikleriyle başa çıkma biçimlerindeki son iyileştirmelere rağmen, gençleri etkileyen ruh sağlığı sorunlarını istikrarlı biçimde tanıyamadığını ve bunlara uygun karşılık veremediğini tespit etti.
Araştırmacılar, sohbet botlarının fark edemediği, ruh sağlığı sıkıntısının açık işaretleri olan ve kendi ifadeleriyle “gözden kaçan ipuçları” tespit etti; modeller, ruhsal sorun belirtilerini tanımak yerine fiziksel sağlığa ilişkin açıklamalara odaklandı.
ChatGPT’ye yönelik ayrı bir değerlendirme ise, intihar ya da kendine zarar verme içeriğine ilişkin uyarıların çoğu zaman ilgili sohbetten 24 saatten daha sonra, yani gerçek bir kriz anında çok geç ulaştığını ortaya koydu, denildi raporda.
Büyük teknoloji devlerinin parası
Enstitü, Common Sense Media çatısı altında faaliyet gösterecek ve Anthropic, OpenAI Foundation ve Pinterest’in de aralarında bulunduğu hayırsever bağışçılar ile sektör temsilcilerinden oluşan bir karışım tarafından finanse edilecek; yani sorumlu tutmayı hedeflediği ürünlerin sahibi olan aynı şirketler tarafından.
Enstitü, bulguları üzerinde tam editoryal bağımsızlığını koruduğunu ve çıkar çatışması politikasının, fon sağlayıcıların mevcut çalışanlarının ya da bağlı kişilerin danışma kurulunda yer almasını engellediğini belirtiyor.
Modelin bir parçası da geliştirip test ettikleri araçları yeniden sektöre sunmayı içeriyor; enstitü, yapay zekâ geliştiricilerinin kendi modelleri üzerinde çalıştırabilecekleri açık kaynaklı değerlendirmeler oluşturmayı planlıyor.