İnsanoğlunun aya ayak basmasının 50. yılı kutlanırken Amerika Birleşik Devletleri (ABD) teknoloji üniversitesi MIT'de 'derin sahtelik' teknolojisi üzerinde çalışan bir ekip dönemin ABD Başkanı Richard Nixon'ın hiç okumadığı bir mektubu okuyormuş gibi gösteren bir video yayınladı.
İnsanoğlunun aya ayak basmasının 50. yılı kutlanırken Amerika Birleşik Devletleri (ABD) teknoloji üniversitesi MIT'de 'derin sahtelik' teknolojisi üzerinde çalışan bir ekip dönemin ABD Başkanı Richard Nixon'ın hiç okumadığı bir mektubu okuyormuş gibi gösteren bir video yayınladı.
Derin sahtelik teknolojisi (deepfake) bir kişinin yüz ifadelerini ve sesini yapay zeka algoritmaları ile tanımlayarak hiç söylemediği şeyleri söylüyormuş gibi görüntüler ortaya çıkmasını sağlayabiliyor. 'Derin' denmesinin nedeni ise bu görüntülerin gerçekten ayırt edilemeyecek kadar gerçekçi görünüyor ve hissettiriyor olması.
Nixon'a bu sahte videoda aya iniş yapan astronotların kaza geçirdikleri ve başarısız oldukları takdirde okuması gereken mektup okutuluyor. Her ihtimal düşünülerek hazırlanmış olan mektubun içeriği tamamen gerçek ancak Nixon'In yüz ifadeleri ve sesi tamamen yapay.
MIT'de yer alan Gelişmiş Sanallık Merkezi çalışanları Francesca Panetta ve Halsey Burgund tarafından hazırlanan film Uluslararası Belgesel Festivali'nde gösterildi ve izleyenler gözlerine inanamadı.
Gördüğünüz her şeye hemen inanmayın
Euronews'a konuşan Panetta "Günümüz politikacılarına ilişkin bir şey yapmak istemedik, komik olmasını da istemedik. Bunun yerine insanlara derin sahtelik gibi teknolojilerin algı yönetimi gibi şeyler için kullanılabileceğini ve temkinli olmaları gerektiğini göstermek istedik. Evet Nixon videosu sahte ama tarih bu şekilde de cereyan edebilirdi."
Ukraynalı ve İsrailli firmalar ile işbirliği yapıldı
MIT ekibi Nixon'ın sesi içinse bir ses aktörü kullandı ve sesin Nixon'ınki ile ayn hale getirilmesi için Ukrayna merkezli Respeecher firması ile işbirliği yapıldı. Nixon yüz hatları ve mimikleri için de İsrailli Canny AI firmasının diyalog manipülasyonu teknikleri kullanıldı.
İngiltere'de de farkındalık yaratmak için iki video yayınlandı
Sahte haberlerin kolayca ve hızla yayılabildiği günümüzde bu tür teknolojilerin algı yönetimi için kullanılmasından endişe ediliyor. Kasım ayı başında İngiltere'de bu konuya dikkat çekmek için Future Advocacy adlı bir grup farkındalık yaratmak için iki karşıt siyasi adayı gösteren iki farklı derin sahtelik videosu yayınlayarak adaylara birbirlerini destekleyen konuşmalar yaptırdı.
MIT çalışanları da benzer şekilde teknolojinin geldiği noktaya dikkat çekmek istediklerini ancak bunun yeterli olmadığını ve bu alanda bazı yasal düzenlemelerin oluşturulması gerektiğini kaydettiler.