Newsletter Haber Bülteni Events Etkinlikler Podcasts Video Africanews
Loader
Bize Ulaşın
Reklam

Uzmanlar uyarıyor: ChatGPT karikatür modası dolandırıcılara gün doğuruyor

Canva stok görselinden üretilmiş bir yapay zekâ karikatürü.
Canva stok görselinden üretilmiş yapay zekâ karikatürü. ©  Canva/ChatGPT
© Canva/ChatGPT
By Euronews
Yayınlanma Tarihi
Paylaş Yorumlar
Paylaş Close Button

Yapay zeka sohbet botlarına yüklenen görsellerin ne kadar süre saklandığı bilinmiyor; kötü niyetli kişilerin eline geçerse taklit, dolandırıcılık ve sahte sosyal medya hesaplarına yol açabilir.

Sohbet robotunun bir kişi hakkında bildiği her şeyi renkli bir resme dönüştüren yapay zekâ (YZ) karikatür modası, siber güvenlik uzmanlarına göre ciddi güvenlik riskleri yaratabiliyor.

REKLAM
REKLAM

Kullanıcılar, şirket logosu ya da rollerine ilişkin ayrıntılar içeren kendi fotoğraflarını yüklüyor ve OpenAI’nin ChatGPT’sinden, sohbet robotunun onlar hakkında bildiklerini kullanarak kendilerinin ve işlerinin bir karikatürünü oluşturmasını istiyor.

Siber güvenlik uzmanları Euronews Next’e, YZ karikatürleri gibi sosyal medya akımlarının dolandırıcılar için adeta hazine değerinde bilgiler sunabileceğini söyledi. Tek bir görsel, kişisel ayrıntılarla birleştiğinde, kullanıcıların fark ettiğinden çok daha fazlasını açığa vurabiliyor.

Yaş doğrulama şirketi Daon’un başkan yardımcısı Bob Long’a göre, “Aslında dolandırıcıların işini onlar adına siz yapıyorsunuz; onlara sizin kim olduğunuzun görsel bir temsilini veriyorsunuz”.

Kullanılan ifadelerin bile alarm zillerini çaldırması gerektiğini savunan Long, bunun “sanki işi kolaylaştırmak isteyen bir dolandırıcı tarafından bilerek başlatılmış gibi” göründüğünü söyledi.

Yüklenen görsellere ne oluyor?

Bir kullanıcı YZ sohbet botuna bir görsel yüklediğinde sistem, siber güvenlik danışmanı Jake Moore’a göre, kişinin duygusu, bulunduğu ortam veya konumunu ele verebilecek bilgiler gibi verileri çıkarmak için o görseli işliyor. Bu bilgiler daha sonra ne kadar süre saklanacağı bilinmeden depolanabiliyor.

Long, kullanıcılardan toplanan görsellerin, yapay zekâ görüntü üreticilerini eğitmek için veri setlerinin bir parçası olarak kullanılabileceğini ve elde tutulabileceğini söyledi.

OpenAI gibi bir şirkette yaşanacak olası bir veri ihlali, yüklenen görseller ile sohbet botunun topladığı kişisel veriler gibi hassas bilgilerin, bunları kötüye kullanabilecek kişilerin eline geçmesi anlamına gelebilir.

İsrailli siber güvenlik şirketi Check Point’in kurumsal çözümler birimi başkanı Charlotte Wilson’a göre, yanlış ellere geçtiğinde tek bir yüksek çözünürlüklü fotoğraf bile sahte sosyal medya hesapları ya da dolandırıcılıkta kullanılabilecek, gerçeğe çok yakın YZ temelli “deepfake”ler oluşturmak için kullanılabilir.

“Selfie’ler, suçluların genel geçer dolandırıcılıklardan kişiye özel, inandırıcılığı yüksek kimlik taklitlerine geçmelerine yardımcı oluyor” dedi.

OpenAI’nin gizlilik ayarları şöyle diyor: Yüklenen görseller, aralarında modelin eğitilmesinin de bulunduğu biçimlerde modeli geliştirmek için kullanılabilir. Modelin gizlilik ayarları hakkında soru sorulduğunda ChatGPT, bunun her fotoğrafın herkese açık bir veritabanına konulduğu anlamına gelmediğini netleştiriyor.

Bunun yerine sohbet botu, sistemin görsel üretirken nasıl davrandığını iyileştirmek için kullanıcı içeriklerinden çıkarılan örüntüleri kullandığını belirtiyor.

YZ trendlerine katılmak isteyenler ne yapmalı?

Trendi denemek isteyenlere uzmanların tavsiyesi, paylaştıkları bilgileri olabildiğince sınırlamaları.

Wilson, kimlik tespitine yarayabilecek bilgiler içeren fotoğraflar yüklemekten kaçınılması gerektiğini söyledi.

“Fotoğrafı sıkı kırpın, arka planı sade tutun ve rozet, üniforma, iş kartlığı, konum ipuçları ya da sizi bir işverene veya günlük rutininize bağlayabilecek hiçbir şey eklemeyin” dedi.

Wilson ayrıca, iş unvanı, yaşadığı şehir ya da işverenin adı gibi kişisel bilgileri komutlara gereğinden fazla dahil etmemeleri konusunda uyardı.

​Bu arada Moore, aralarında verilerin YZ eğitiminden çıkarılmasına yönelik seçeneğin de bulunduğu gizlilik ayarlarının, trende katılmadan önce gözden geçirilmesini tavsiye etti.

OpenAI’nin bir gizlilik portalı bulunuyor; burada kullanıcılar “do not train on my content” seçeneğine tıklayarak içeriklerinin YZ eğitiminde kullanılmasını reddedebiliyor.

Kullanıcılar ayrıca “improve the model for everyone” ayarını kapatarak ChatGPT ile yaptıkları yazılı sohbetlerin eğitimde kullanılmasını da engelleyebiliyor.

AB yasalarına göre kullanıcılar, şirketin topladığı kişisel verilerinin silinmesini talep edebiliyor. Ancak OpenAI, dolandırıcılık, suistimal ve güvenlik kaygılarını gidermek amacıyla silme işleminden sonra bile bazı bilgileri saklayabileceğini belirtiyor.

Erişilebilirlik kısayollarına git
Paylaş Yorumlar

Bu haberler de ilginizi çekebilir

Moltbook paylaşımlarının arkasında kim var: Yapay zekâ mı, insanlar mı

AB Komisyonu ve Interpol'den ortak 'yapay zeka' çağrısı

Akıllı ev güvenlik sisteminiz aslında sizi riske atıyor olabilir mi?