Eski ABD Başkanı Nixon 'derin sahtelik' teknolojisi ile mektup okudu

Richard Nixon
Richard Nixon
© 
By Sertaç Aktan
Haberi paylaşınYorumlar
Haberi paylaşınClose Button

İnsanoğlunun aya ayak basmasının 50. yılı kutlanırken Amerika Birleşik Devletleri (ABD) teknoloji üniversitesi MIT'de 'derin sahtelik' teknolojisi üzerinde çalışan bir ekip dönemin ABD Başkanı Richard Nixon'ın hiç okumadığı bir mektubu okuyormuş gibi gösteren bir video yayınladı.

REKLAM

İnsanoğlunun aya ayak basmasının 50. yılı kutlanırken Amerika Birleşik Devletleri (ABD) teknoloji üniversitesi MIT'de 'derin sahtelik' teknolojisi üzerinde çalışan bir ekip dönemin ABD Başkanı Richard Nixon'ın hiç okumadığı bir mektubu okuyormuş gibi gösteren bir video yayınladı.

Derin sahtelik teknolojisi (deepfake) bir kişinin yüz ifadelerini ve sesini yapay zeka algoritmaları ile tanımlayarak hiç söylemediği şeyleri söylüyormuş gibi görüntüler ortaya çıkmasını sağlayabiliyor. 'Derin' denmesinin nedeni ise bu görüntülerin gerçekten ayırt edilemeyecek kadar gerçekçi görünüyor ve hissettiriyor olması.

Nixon'a bu sahte videoda aya iniş yapan astronotların kaza geçirdikleri ve başarısız oldukları takdirde okuması gereken mektup okutuluyor. Her ihtimal düşünülerek hazırlanmış olan mektubun içeriği tamamen gerçek ancak Nixon'In yüz ifadeleri ve sesi tamamen yapay.

MIT'de yer alan Gelişmiş Sanallık Merkezi çalışanları Francesca Panetta ve Halsey Burgund tarafından hazırlanan film Uluslararası Belgesel Festivali'nde gösterildi ve izleyenler gözlerine inanamadı.

Gördüğünüz her şeye hemen inanmayın

Euronews'a konuşan Panetta "Günümüz politikacılarına ilişkin bir şey yapmak istemedik, komik olmasını da istemedik. Bunun yerine insanlara derin sahtelik gibi teknolojilerin algı yönetimi gibi şeyler için kullanılabileceğini ve temkinli olmaları gerektiğini göstermek istedik. Evet Nixon videosu sahte ama tarih bu şekilde de cereyan edebilirdi."

Ukraynalı ve İsrailli firmalar ile işbirliği yapıldı

MIT ekibi Nixon'ın sesi içinse bir ses aktörü kullandı ve sesin Nixon'ınki ile ayn hale getirilmesi için Ukrayna merkezli Respeecher firması ile işbirliği yapıldı. Nixon yüz hatları ve mimikleri için de İsrailli Canny AI firmasının diyalog manipülasyonu teknikleri kullanıldı.

İngiltere'de de farkındalık yaratmak için iki video yayınlandı

Sahte haberlerin kolayca ve hızla yayılabildiği günümüzde bu tür teknolojilerin algı yönetimi için kullanılmasından endişe ediliyor. Kasım ayı başında İngiltere'de bu konuya dikkat çekmek için Future Advocacy adlı bir grup farkındalık yaratmak için iki karşıt siyasi adayı gösteren iki farklı derin sahtelik videosu yayınlayarak adaylara birbirlerini destekleyen konuşmalar yaptırdı.

MIT çalışanları da benzer şekilde teknolojinin geldiği noktaya dikkat çekmek istediklerini ancak bunun yeterli olmadığını ve bu alanda bazı yasal düzenlemelerin oluşturulması gerektiğini kaydettiler.

Haberi paylaşınYorumlar

Bu haberler de ilginizi çekebilir

Türkiye sahte haber ve dezenformasyonda zirveye oturdu

AB sahte haberlere savaş açtı

Hollanda: 100'den fazla Türk cami Geert Wilders'in Twitter hesabının dondurulmasını istedi