Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

Uluslararası Doğrulama Günü: Yapay zekâ dezenformasyonu ayırt etme yolları

Yapay zeka ile üretilmiş görüntü veya videoları tespit etmek için, bağımsız araştırma yapın, ipuçlarını arayın ve uzman doğrulayıcıları dinleyin.
Yapay zekâyla üretilmiş görüntü ve videoları ayırt etmek için bağımsız araştırma yapın, ipuçlarını arayın ve uzman doğrulayıcıları dinleyin. ©  Canva
© Canva
By Anna Desmarais & AP
Yayınlanma Tarihi
Paylaş Yorumlar
Paylaş Close Button

Bağımsız araştırma yapmak, görüntüde ipuçları aramak ve uzman doğrulayıcıların değerlendirmelerine güvenmek, bir görselin yapay zekâ üretimi olup olmadığını anlamaya yardımcı olur.

10'uncu Uluslararası Doğruluk Kontrolü Günü vesilesiyle, yapay zekâ kaynaklı dezenformasyonu nasıl tespit edebileceğimizi hatırlamakta fayda var.

REKLAM
REKLAM

Bu tür içerik, ABD-İran savaşıyla ilgili paylaşımlardan Macaristan seçimleri öncesi döneme ve hatta bireysel sosyal medya akışlarına kadar her yerde karşımıza çıkıyor.

PNAS Nexus dergisinde yayımlanan yakın tarihli bir araştırmada, AB ülkelerinden 27 bin kişiden, bazıları insan, bazıları yapay zekâ üretimi olan sekiz haber başlığını ne kadar gerçek göründüklerine göre sıralamaları istendi.

Yapay zekâ tarafından üretilen başlıkların neredeyse yarısı, insan eliyle yazılan başlıkların ise %44'ü 'çoğunlukla' ya da 'tamamen gerçek' olarak değerlendirildi. Katılımcılar ayrıca, gerçek bir haber olayını konu aldığını bildikleri durumda, insan gazetecilerin yazdıklarına kıyasla yapay zekâ tarafından üretilen bir haber metnini paylaşma ve ona güvenme eğiliminde daha yüksekti.

Ancak katılımcılar, ister insan ister yapay zekâ tarafından yazılmış olsun, sahte olduğunu bildikleri bir haberi paylaşma ihtimallerinin daha düşük olduğunu belirtti.

Araştırmacılara göre bu bulgular, insanların insan yapımı içerikle yapay zekâ üretimi içerik arasındaki farkı ayırt edemediğini gösteriyor.

İşte bunu yapabilmek için bazı ipuçları.

Görsel ipuçlarına dikkat edin

İlk yayımlanan yapay zekâ videolarının bazı bariz ipuçları vardı: fazla parmaklı insanlar, ağız hareketleriyle uyuşmayan sesler ya da biçimi bozulmuş nesneler gibi.

Teknoloji geliştiği için artık bu tür işaretler daha az görülüyor; yine de bunlara dikkat etmekte fayda var.

Kullanıcılar, bir karede görünen bir arabanın bir sonraki karede ortadan kaybolması gibi tutarsızlıklara da bakabilir.

Küresel Araştırmacı Gazetecilik Ağı'na (GIJN) göre, bazı yapay zekâ görselleri aşırı cilalı durabilir ya da doğallıktan uzak bir parlaklığa sahip olabilir.

GIJN, olası bir yapay zekâ görseline bakarken kendinize şu soruyu sormanızı öneriyor: Görseldeki kişi, özellikle de bağlamı dikkate alındığında, gerçek olamayacak kadar kusursuz mu görünüyor? Örneğin bir çatışma bölgesindeyken bile dergi kapağına çıkmaya hazır gibi mi? Ayrıca, cildin dokusuna bakarak gerçekçi ayrıntıların eksik olup olmadığını kontrol etmeyi tavsiye ediyorlar.

Araştırmanızı yapın

Bir görüntü ya da video şüpheli görünüyorsa, gerçek olup olmadığını kontrol etmenin çeşitli yolları var.

Bunun yollarından biri, tersine görsel arama yapmak. Bunun için kullanıcı videodan ekran görüntüsü alıp Google arama çubuğuna yüklüyor ve üzerinde 'search for image' yazan kamera simgesine tıklıyor.

Görsel yüklendiğinde Google, aynı fotoğrafın görsel eşleşmelerini listeliyor ve böylece ilk ne zaman paylaşıldığını hızla tespit etmek mümkün oluyor.

Aynı işlem diğer arama motorlarında ya da TinEye gibi özel araçlarla da yapılabiliyor.

Kullanıcılar, bir içeriğin filigranlarını veya meta verilerini izleyerek bilginin güvenilir olup olmadığını anlamak için teknik çözümlerden de yararlanabilir, Avrupa Komisyonu'nun (kaynak İngilizce) belirttiğine göre.

Örneğin Google'ın Gemini yapay zekâsıyla üretilen görsellerde, uygulamanın tespit edebildiği SynthID adlı görünmez bir dijital filigran bulunuyor.

Uzmanları dinleyin

Kullanıcılar ayrıca, dolaşıma giren bir görüntü ya da videonun, medya kuruluşları, kamuoyu önündeki isimler ya da dezenformasyon uzmanlarının sosyal medya paylaşımları tarafından daha önce çürütülüp çürütülmediğini kontrol edebilir.

Avrupa'da, Avrupa Doğruluk Kontrolü Standartları Ağı (EFCSN), Avrupa Dijital Medya Gözlemevi (EDMO) ve Avrupa Birliği Dış Eylem Servisi (EEAS) bünyesindeki EUvsDisinfo gibi, yapay zekâ kaynaklı dezenformasyonun çeşitli biçimlerine ilişkin eğilimleri, araştırmaları ve çürütmeleri yayımlayan doğruluk kontrolü kuruluşları bulunuyor.

Bu kaynaklar, yapay zekâ üretimi içerikleri tespit etmek için daha gelişmiş tekniklere sahip olabilir ya da görüntüye dair, genel kamuoyunun erişemediği bilgilere ulaşabiliyor olabilir.

Kullanıcılar ayrıca gördükleri bilginin, gazeteciler, araştırmacılar ve profesyonel doğruluk kontrolcülerinin yaptığı doğrulamalardan oluşan Bilinen Sahte Haberler Veritabanı adlı bir veritabanının (kaynak İngilizce) bir parçası olup olmadığını da kontrol edebilir.

Teknolojiden yararlanın

Kullanılabilecek bazı yapay zekâ tespit araçları var; ancak bu araçların yapay zekâ üretimi içerikleri ne kadar isabetli bir şekilde işaretlediği tartışmalı.

Bu araçlardan bazıları şöyle: Yapay zekâ tarafından üretilmiş görselleri tespit eden Winston AI; bir görselin yapay zekâ ürünü olup olmadığına dair ilk değerlendirmeyi sunan TruthScan; metnin yapay zekâ ile yazılıp yazılmadığını tespit eden Originality AI.

Diğer bazı yapay zekâ üretim araçları, oluşturdukları içeriklere görünür filigranlar ekliyor.

Ancak bu işaretler çoğu zaman kolayca silinebiliyorya da kırpılabiliyor; dolayısıyla böyle bir filigranın olmaması, görselin gerçek olduğunun kanıtı sayılmaz.

Yavaşlayın

Durun, derin bir nefes alın ve gerçek olmayan bir şeyi hemen paylaşmayın.

Kötü niyetli aktörler, insanların duygularının ve mevcut bakış açılarının içeriklere verdikleri tepkileri yönlendirmesine sıkça bel bağlar.

Yorumlara bakmak, kullanıcıların gördüğü görüntünün gerçek olup olmadığına dair ipuçları verebilir; çünkü başkaları, yapay zekâ üretimine işaret eden başka ayrıntılar fark etmiş olabilir.

Bir görselin her zaman yapay zekâ tarafından üretilip üretilmediğini anlamak mümkün değildir; bu nedenle gerçek olmayabileceği ihtimalini akılda tutmakta fayda var.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

Fotoğraflarla: Artemis II astronotları tarihi NASA Ay görevine başladı

Apple 50. yılını kutluyor: Hollanda'da yeni müze açıldı

Uluslararası Doğrulama Günü: Yapay zekâ dezenformasyonu ayırt etme yolları