Zephyrnet Logosu

Gerçek zamanlı derin sahtekarlıklar, yandan bir bakışla alt edilebilir

Tarih:

Yeni bir internet belirsizliği çağının habercisi olarak müjdelenen gerçek zamanlı derin sahte videoların temel bir kusuru var gibi görünüyor: Yan profilleri kaldıramıyorlar.

işte varılan sonuç bu rapor [PDF] 3D avatarlar, deepfake teknolojisi ve 3D fotoğraflardan 2D görüntüler oluşturma konusunda uzmanlaşmış Metaphysic.ai'den. Popüler gerçek zamanlı deepfake uygulaması kullanılarak yapılan testlerde DerinYüzCanlı, yana sert bir dönüş, ekrandaki kişinin göründüğü kişi olmadığı kolayca anlaşıldı. 

Testte birden fazla model kullanıldı - birkaçı deepfake topluluklarından ve DeepFaceLive'a dahil edilen modellerden - ancak yüzün 90 derecelik bir görünümü, Yüz Hizalama Ağı pozları tahmin etmek için kullandığından, ne gördüğünü anlamaya çalışırken titremeye ve bozulmaya neden oldu. 

Metafizik'in testlerinden bir çift görüntü, derinden sahte bir Jim Carrey'i ve yana dönmenin sonucunu gösteriyor.

Metaphysic.ai'ye katkıda bulunan Martin Anderson, "Çoğu 2B tabanlı yüz hizalama algoritması, önden yüz görünümünden profil görünümüne kadar yer işaretlerinin sayısının yalnızca yüzde 50-60'ını atar" dedi. blog yazısı.

Yeterince referans noktası göremeyen yazılım, sahte yüzünü nasıl yansıtacağını bilemez.

Deepfake'leri raydan çıkarmak

Sadece birkaç yıl içinde, derin sahtekarlıklar, yüzleri görüntülerin üzerine bindirebilmekten, aynısını önceden kaydedilmiş videolarda yapmaya kadar ilerledi. En son gelişmeler, gerçek zamanlı yüz değişimine izin veriyor ve bu da çevrimiçi dolandırıcılık ve siber suçlarda daha fazla derin sahtekarlığın kullanılmasına neden oldu.

A ders çalışma VMware'den, yanıt verenlerin üçte ikisinin, bir önceki yıla göre yüzde 13 artışla, bir saldırının parçası olarak kötü niyetli derin sahtekarlıklarla karşılaştığını tespit etti. VMware araştırmasının, katılımcıların karşılaştığı derin sahte saldırıların önceden kaydedilmiş mi yoksa gerçek zamanlı mı olduğunu belirtmediğini ve yalnızca 125 kişilik bir örneklem büyüklüğüne sahip olduğunu unutmayın.

FBI, Haziran ayında deepfake teknolojisini kullanan dolandırıcılara karşı uyardı uzaktan iş görüşmeleri sırasında. FBI, tekniği kullananların, müşteri verilerine ve işletmelerin özel bilgilerine erişmelerini sağlayacak hassas işler için görüşme yaparken tespit edildiğini söyledi. 

Deepfake videolar, canlı yüz tanıma yazılımını kandırmak için de kullanıldı. göre çevrimiçi dolandırıcılıkla mücadele girişimi Sensity AI'ye. Sensity'nin testleri, bir cep telefonundan yayınlanan, derin sahtekarlıkla değiştirilmiş bir video kullanılarak on satıcının uygulamasından dokuzunun başarıyla açıldığını buldu.

Teknolojiye ilişkin korkular, Avrupa Birliği için yeterince ciddi hale geldi. yasaları geçmek Deepfake'ler ve diğer dezenformasyon kaynaklarıyla yeterince mücadele edemeyen şirketlere para cezası verilmesi. Çin de hazırlandı derin sahte yasalar Çin'in "derin sentez" olarak adlandırdığı derin sahtekarlıkların herhangi bir meşru kullanımı için izin verilmesinin yanı sıra, teknolojinin kötüye kullanımı için yasal cezayı tehdit ediyor. 

Ne zamana kadar bir geçici çözüm?

Metafizik'in raporuna göre, Nvidia'nınki gibi teknoloji bile sinirsel parlaklık alanı (NeRF), yalnızca birkaç hareketsiz görüntüden bir 3D sahne oluşturabilen, iyi bir yan profil görünümü geliştirmeyi zorlaştıran sınırlamalardan muzdariptir. 

NeRF'ler "teoride, sadece bir avuç resimden herhangi bir sayıda yüz açısını tahmin edebilir. [Ancak] çözünürlük, yüz hareketliliği ve zamansal kararlılıkla ilgili sorunlar, NeRF'nin profil görüntülerini iyi işleyebilen bir otomatik kodlayıcı modelini eğitmek için gereken zengin verileri üretmesini engelliyor" diye yazdı Anderson. Daha fazla bilgi edinmek için Nvidia'ya ulaştık, ancak henüz bir yanıt alamadık. 

Okuyucular, Metafizik'in gösterilerinin yalnızca ünlü yüzleri içerdiğini ve filmlerde ve fotoğraflarda çok sayıda profil görüntüsü yakalanmış olduğunu not edeceklerdir. Aramızdaki ünlü olmayanların ise yandan pek çok yan profil fotoğrafı çekmesi pek olası değil.

Anderson, "Bir noktada tutuklanmadığınız sürece, ne sosyal medyada ne de çevrimdışı bir koleksiyonda böyle bir imajınız bile olmayabilir" diye yazdı.

Bir yazılım mühendisi ve AI girişimi Lexion'un kurucusu olan Gaurav Oberoi, 2018'de derin sahtekarlıkları araştırırken hemen hemen aynı şeyi buldu. blogunda yayınla, Oberoi, komedyen John Oliver'ın gece yarısı sunucu Jimmy Fallon'un üzerine bindirilmiş derin sahtekarlıklarının nasıl iyi çalıştığını, ancak profilde olmadığını anlattı.

Oberoi, "Genel olarak, hedefinizin eğitim görüntülerinin, onları yapıştırmak istediğiniz videolardaki yönlendirme, yüz ifadeleri ve ışıklandırmaya yaklaşması gerekir" dedi. "Yani, ortalama bir kişi için bir yüz değiştirme aracı oluşturuyorsanız, çoğu fotoğrafının öne baktığı göz önüne alındığında, yüz değiştirmelerini çoğunlukla ileriye dönük videolarla sınırlayın."

Bunun anlamı, gerçek zamanlı derin sahtekarlık kullanan dolandırıcıların, sahte olduğu hemen anlaşılmayan bir yan profil görünümü oluşturmak için gerekli verilere sahip olma ihtimalinin düşük olduğudur (iyi fotoğraflanmış bir ünlü yüzü kullanmadıkları sürece) . 

Deepfaker'ların bu eksikliği gidermenin bir yolunu bulduğunu öğrenene kadar, Zoom'un diğer ucundaki kişiden size ünlü olsun ya da olmasın, yüzünün yandan bir görünümünü göstermesini isteme politikasını benimsemek iyi bir fikirdir. ®

spot_img

En Son İstihbarat

spot_img

Bizimle sohbet

Merhaba! Size nasıl yardım edebilirim?