Son bir yılda yüz binlerce kadına fotoğraflar, kendi rızaları ve haberleri olmadan yapay zeka programı ile pornografik içeriğe dönüştürüldü. Yeni yayımlanan bir rapor, deepfake teknolojisiyle mağduriyetlerin her geçen gün arttığına dikkat çekiyor
Son bir yılda yüz binlerce kadına ait fotoğraflar, kendi haberleri ve rızaları olmadan yapay zeka programı ile pornografik içeriğe dönüştürüldü.
Yeni yayımlanan bir rapor, deepfake teknolojisiyle mağduriyetlerin her geçen gün arttığına dikkat çekiyor.
Fotoğraflardaki kıyafetleri kaldırarak yerine yapay olarak çıplaklık getiren uygulamalar uzun süredir bulunuyor. Ancak bunun artık cep telefonlarından ve hiçbir teknik bilgi gerektirmeden ulaşılabiliyor olması, insan hakları savunucuları tarafından da endişeyle karşılanıyor.
Deepfake konusunda araştırmalar yapan Sensity'nin yayımladığı rapora göre en az 104 bin kadına ait fotoğraf, algoritma aracılığıyla yapay olarak pornografikleştirildi. Sensity tepe yöneticisi Giorgio Patrini, "Burada yenilik yapay zeka teknolojisinin geldiği durum değil. Bunun artık herkese kolayca ulaşabilmesi" şeklinde konuşuyor.
700 binden fazla kadın hedef alınmış olabilir
Bir telefon uygulaması aracılığıyla çalışan yapay zeka algoritmasına ait olan internet sayfasında ise bu sayının 700 bini geçtiği iddia ediliyor.
Sensity'nin raporuna göre uygulama ile hedef alınan kadınların yüzde 70'i ünlü olmayan kişilerden oluşuyor. Bazı durumlarda da 18 yaşını geçmemiş çocuklar hedef alınıyor. Uygulamayı kullananların çoğunun Rusya ve eski Sovyet ülkelerinde yaşadığı düşünülüyor.
Uygulamanın daha fazla yayılmaması için raporda olduğu gibi bu haberde de uygulamanın isminin ne olduğunu paylaşmıyoruz.
Yapay zeka ile üretilen deepfake (derin sahtecilik) içerikleri, daha önce de zaman zaman gündeme gelmişti. Eski ABD Başkanı Nixon'a, bu teknoloji kullanılarak mektup okutulmuştu.
Facebook da, ABD seçimleri öncesi platformda paylaşılan deepfake videoların silineceğini duyurmuştu.