Deepfake videolarını tespit etmek zorlaşıyor! Gerçekçi kalp atışları

Deepfake Videolarının Yapay Zeka ile Tespit Edilmesi Gerekebilir

Bir kişinin yüzünün ya da vücudunun dijital olarak değiştirilmesiyle oluşturulan deepfake videolar endişe verici bir durum oluşturuyor.

Bu videolar, bir kişinin görüntüsünün yapay zeka kullanılarak değiştirilmesiyle ortaya çıkıyor. Her ne kadar bu teknoloji, kişilerin yüzlerini eğlenceli amaçlarla değiştiren uygulamalarda kullanılsa da, aynı zamanda insanların itibarını zedelemek amacıyla da kullanılabiliyor.

Independent Türkçe’nin haberine göre, deepfake videoları, insanların itibarını zedelemek veya cinsel içerikli sahte videolar oluşturmak için kullanılabilecek bir tehlike oluşturuyor. Bu tür videoların gerçek olup olmadığını belirlemek için kullanılan ileri teknolojilerden biri ise kalp atışlarının incelenmesi.

Uzaktan fotopletismografi (rPPP) adlı bir araç, deri yoluyla ışık değişimlerini izleyerek nabzı ölçebiliyor. Bu araç, çevrim içi hekim randevularının yanı sıra deepfake videolarını tespit etmek için de kullanılabiliyor.

30 Nisan’da Frontiers in Imaging dergisinde yayımlanan bir çalışmaya göre, deepfake videolarda artık gerçeğe yakın kalp atışları oluşturulabiliyor.

Bilim insanları, videolarda nabız hızını otomatik olarak analiz edebilen bir deepfake dedektörü geliştirilmesi için çalışmalara başladı. Sonuçlar oldukça başarılıydı, rPPP tabanlı araç, EKG kayıtlarıyla karşılaştırıldığında dakikada yalnızca iki-üç atım farkıyla çalıştı.

Bu araç, deepfake videolarda kalp atışı eklenmemiş olsa bile son derece gerçekçi bir kalp atışı algılayabiliyor. Bilim insanları, deepfake videolara kalp atışlarının kasten eklenmesi yanı sıra kaynak videodan da geçebileceğini belirtiyor.

Almanya’daki Humboldt Üniversitesi’nden araştırmacı Peter Eisert, deepfake videoların gerçek görüntülerden üretilebileceğini belirterek şunları söyledi:

“Geliştirilen deepfake’ler her geçen gün daha gerçekçi hale geliyor ve iki yıl önce etkili olan dedektörler artık yetersiz kalabiliyor.”

Araştırmacılar, deepfake videoları saptamanın farklı yolları olduğunu savunuyor. Örneğin, sadece nabız hızını değil, yüzdeki kan akışını detaylı olarak inceleyen dedektörler geliştirilebilir.

Eisert, “Kalp atışları sırasında kan yüzdeki damarlardan geçerek dağılıyor ve bu süreçte gerçek videolarda gözlenebilecek küçük gecikmeler vardır” diyor.

Ancak bilim insanlarına göre, deepfake videoları tespit etmenin nihai çözümü, dedektörlerden ziyade bir görüntünün değiştirilip değiştirilmediğini belirlemeye yarayan dijital işaretlere odaklanmaktan geçiyor:

“Bir şeyin sahte olup olmadığını tespit etmekten ziyade, bir görüntünün değiştirilmediğini kanıtlayan teknolojilere odaklanmadığımız sürece, deepfake videoları tespit etmek giderek zorlaşacak.”

Related Posts

Çin’de ‘Türk tipi’ araç satışı resmen başlıyor

Türkiye’de otomobil piyasasını dengelemek amacıyla uygulamaya konan 6 ay / 6 bin kilometre kuralına benzer bir düzenleme bu kez Çin’de gündemde.

WhatsApp kullanıcıları dikkat: Reklamlı dönem resmen başladı

Popüler mesajlaşma uygulaması WhatsApp’ta uzun süredir gündemde olan reklam gösterimi, son güncellemeyle birlikte kullanıcıların karşısına çıktı. Yeni sistemle birlikte, “Durum Reklamları” adı verilen özellik devreye girdi. Instagram hikayelerine …

56 bin yıl önce olan iki olayın arasındaki bağ bulundu

Bilim insanları, ABD’nin güneybatısındaki iki ikonik jeolojik olay arasında şimdiye dek fark edilmeyen bir bağlantı kurdu. Yeni bir araştırma, Arizona’daki Barringer Krateri’ni oluşturan antik meteor çarpmasının, yaklaşık 160 kilometre uzaklıktaki Grand Canyon’da büyük bir heyelanı tetiklemiş olabileceğini ortaya koydu.

Grok’un hakaret ve küfür içerikli paylaşımları tüm dünyada eleştiri konusu oldu

ABD’li iş insanı Elon Musk’ın sahibi olduğu xAI tarafından geliştirilen sohbet robotu Grok’un kullanıcılara hakaret içerikli yanıtlar vermesi tüm dünyada yankılanmaya devam ediyor. xAI tarafından geliştirilen sohbet robotu Grok, yeni geliştirilen algoritması sonrasında kullanıcıların sorularına dini, kültürel ve siyasi bağlamda ağır hakaret içeren yanıtlarla karşılık verdi. Grok’tan önce Microsoft tarafından geliştirilen Tay ve Meta tarafından geliştirilen BlenderBot 3 de sosyal medya kullanıcılarına ırkçı ifadelerle yanıtlar vermişti.

Apple görünce durduruyor! Bu özellik bazı görüşmeleri başlamadan bitirecek

iOS 26’da ilginç bir güvenlik özelliği test ediliyor: Görüntüde çıplaklık algılanırsa arama otomatik duruyor. Beta kullanıcıları yeni özelliği fark etti, Apple ise henüz sessiz.

ABD’den Huawei’e yönelik yeni karar

ABD’de yargıç, Çin’in merkezli teknoloji şirketi Huawei’nin, hakkındaki iddianameye yönelik itirazının reddedildiğini bildirdi.