‘Deepfake’e dikkat!

Yapay zekâ teknikleriyle oluşturulan sahte ya da manipüle edilmiş ses kayıtları, videolar veya görsellerle oluşturulan ‘Deepfake’ teknolojisine ilişkin uzman isimlerden uyarılar geldi.

Yapay zekâ teknikleriyle oluşturulan sahte ya da manipüle edilmiş ses kayıtları, videolar veya görsellerle oluşturulan ‘Deepfake’ teknolojisine ilişkin uzman isimlerden uyarılar geldi.

Dolandırıcıların son dönemde yaygın olarak kullandıkları bu teknoloji karşısında dikkatli olunması gerektiğini ifade eden güvenlik uzmanları sosyal medya platformlarında paylaşımlarda bulunurken sorumlu davranılmasını istedi.

Güvenlik kaynakları, ‘Deepfake’in nasıl anlaşılabileceğine dair bilgiler verirken, şu hususların altı çizildi:

Görüntünün gerçek olup olmadığını anlamak için yapay görünürlüğü, beden dile ile yüz ifadeleri arasındaki uyumu gözlemleyebilir ya da deepfake tespit yazılımlarını deneyebilirsiniz.

Kişiler gerçekte yapmadığı ya da söylemediği şeyleri yapıyormuş veya söylüyormuş gibi gösterilebilir.

Kötü niyetli kişilerce ele geçirilen ses ve görüntüler başka ses ya da görüntülere entegre edilerek dolandırıcılık, şantaj, karalama vb. amaçlarla kullanılabilir.

Toplum nezdinde itibarlı kişilere ait ses, resim veya videoların dolandırıcılık amaçlı kullanılabileceğini unutmayın. Sizin de görselleriniz kullanılabilir, paylaşımlarını yaparken daha sorumlu davranın.

Bir teklif inanılmayacak kadar güzelse o teklife inanmayın.

İlk yorum yazan siz olun
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.

Bilecik Haber Haberleri