İtalyan Veri Koruma Kurumu, OpenAI'ın yapay zekasını eğitmek için kişisel verileri 'yeterli bir yasal dayanak' olmadan kullandığını tespit etti.
İtalya'nın veri koruma gözlemcisi, şirketin yapay zeka sohbet robotu ChatGPT ile ilgili kişisel veri toplama soruşturmasını tamamladıktan sonra OpenAI'ye 15 milyon euro para cezası verdi.
İtalyan Veri Koruma Kurumu (Garante) OpenAI'nin ChatGPT'yi eğitmek için kişisel verileri "yeterli bir yasal dayanağa sahip olmadan kullandığını ve şeffaflık ilkesini ve kullanıcılara yönelik ilgili bilgi yükümlülüklerini ihlal ettiğini" söyledi.
Soruşturmaya göre OpenAI ayrıca 13 yaşından küçük kullanıcıların yapay zeka tarafından üretilen uygunsuz içeriğe maruz kalmasını önlemek için "yeterli yaş doğrulama sistemi" sağlamadı.
İtalyan yetkili OpenAI'den, şirketin kişisel verileri nasıl topladığı konusunda farkındalık yaratmak için yerel medyada altı aylık bir kampanya başlatmasını istiyor.
Raporda,"ChatGPT kullanıcıları ve kullanıcı olmayanlar, kişisel verileriyle üretken yapay zekanın eğitilmesine nasıl karşı çıkacakları konusunda bilgilendirilmeli ve bu nedenle Genel Veri Koruma Yönetmeliği (GDPR) kapsamındaki haklarını etkin bir şekilde kullanabilecek konuma getirilmelidir," denildi.
OpenAI kararı 'orantısız' buldu
Garante, 2023 yılında olası bir veri ihlalini araştırırken gizlilik endişeleri nedeniyle ChatGPT'nin kullanılmasına geçici bir engel koymuştu.
OpenAI, e-posta yoluyla yaptığı açıklamada kararı "orantısız" olarak nitelendirdi ve temyize gideceğini söyledi.
Bir OpenAI sözcüsü cezanın aynı yıl İtalya'da elde ettiği gelirin "yaklaşık 20 katı" olduğunu söyledi.
Şirket, "gizlilik haklarına saygı duyan faydalı bir yapay zeka sunmak için dünya çapındaki gizlilik yetkilileriyle birlikte çalışmaya kararlı olduğunu" da sözlerine ekledi.
ABD ve Avrupa'daki düzenleyiciler OpenAI ve yapay zeka patlamasında önemli rol oynayan diğer şirketleri incelerken, dünyanın dört bir yanındaki hükümetler de yapay zeka için kapsamlı bir kural kitabı olan Avrupa Birliği Yapay Zeka Yasası'nın (AI Act) öncülüğünde yapay zeka sistemlerinin yarattığı risklere karşı koruma sağlamak için kurallar hazırlıyor.