Logo Zephyrnet

Il rilevamento dei deepfake pone una corsa tecnologica problematica

Data:

Gli esperti nutrono poche speranze in una soluzione tecnica solida a lungo termine.

Con l’aumento delle preoccupazioni sulla disinformazione con l’avvicinarsi delle elezioni presidenziali americane, i ricercatori dell’industria e del mondo accademico continuano a studiare modi per rilevare contenuti fuorvianti o falsi generati utilizzando reti neurali profonde, i cosiddetti “deepfakes”.

Sebbene ci siano stati dei successi – ad esempio, concentrarsi su artefatti come il battito innaturale degli occhi ha portato a tassi di precisione elevati – rimane un problema chiave nella corsa agli armamenti tra aggressori e difensori: le reti neurali utilizzate per creare video deepfake vengono testate automaticamente contro una varietà di tecniche intese a rilevare media manipolati e possono essere facilmente incluse le più recenti tecnologie di rilevamento difensivo. Il ciclo di feedback utilizzato per creare deepfake è simile nell’approccio, se non nella tecnologia, ai servizi completamente non rilevabili (FUD) che consentono di codificare automaticamente il malware in modo da eludere la tecnologia di rilevamento basata sulle firme.

Il rilevamento degli artefatti è in definitiva un’impresa persa, afferma Yisroel Mirsky, ricercatore post-dottorato in sicurezza informatica presso il Georgia Institute of Technology e coautore di un articolo che ha esaminato il stato attuale delle tecnologie di creazione e rilevamento dei deepfake.

"La parte difensiva sta facendo la stessa cosa", dice. “Stanno cercando una sorta di artefatto specifico per il generatore di deepfake o applicando qualche classificatore generico per un’architettura o un’altra. Dobbiamo cercare soluzioni fuori banda”.

Il problema è ben noto tra i ricercatori. Prendiamo l'annuncio del 1° settembre di Microsoft di uno strumento progettato per aiutare a rilevare i video deepfake. Microsoft Video Authenticator rileva possibili deepfake trovando il confine tra le immagini inserite e il video originale, fornendo un punteggio per il video durante la riproduzione.

Sebbene la tecnologia venga rilasciata come un modo per rilevare problemi durante il ciclo elettorale, Microsoft ha avvertito che i gruppi di disinformazione si adatteranno rapidamente.

“Il fatto che [le immagini siano] generate dall’intelligenza artificiale che può continuare ad apprendere rende inevitabile che supereranno la tecnologia di rilevamento convenzionale”, hanno affermato Tom Burt, vicepresidente aziendale per la sicurezza e la fiducia dei clienti, ed Eric Horvitz, direttore scientifico, in un post sul blog che descrive la tecnologia. “Tuttavia, nel breve periodo, come le imminenti elezioni americane, le tecnologie di rilevamento avanzate possono essere uno strumento utile per aiutare gli utenti più esigenti a identificare i deepfake”.

Microsoft non è la sola a considerare l’attuale tecnologia di rilevamento dei deepfake come una soluzione temporanea. Nella sua Deep Fake Detection Challenge (DFC) all’inizio dell’estate, Facebook ha scoperto che l’algoritmo vincente rilevava accuratamente solo video falsi circa due terzi delle volte. 

"[I] risultati del DFDC mostrano anche che questo è ancora un problema irrisolto", afferma l'azienda ha detto nel suo annuncio. "Nessuno dei 2,114 partecipanti, tra cui i principali esperti di tutto il mondo, ha raggiunto una precisione del 70% sui deepfake invisibili nel set di dati della scatola nera." 

In effetti, definire la competizione tra aggressori e difensori una “corsa agli armamenti” è un po’ un termine improprio perché i progressi tecnologici probabilmente significheranno che video falsi realistici che non possono essere rilevati dalla tecnologia diventeranno una realtà non troppo lontano in un futuro. afferma Alex Engler, Rubenstein Fellow in studi sulla governance presso il Brookings Institute, un think tank politico.

"Non abbiamo visto un miglioramento drammatico nei deepfake e non abbiamo un video deepfake davvero convincente, ma sono ottimista riguardo alla visione a lungo termine? Non proprio”, dice. “Miglioreranno. Alla fine non ci sarà un modo empirico per distinguere tra un deepfake e un video legittimo”.

In un documento politico, Engler ha sostenuto che i politici dovranno pianificare il futuro in cui la tecnologia deepfake sarà diffusa e sofisticata.

Dal punto di vista tecnico, come nel settore anti-malware, ci sono due percorsi probabili che seguirà il rilevamento dei deepfake. Alcune aziende stanno creando modalità per firmare i video come prova che non sono stati modificati. Microsoft, ad esempio, ha presentato una tecnologia di firma con un plug-in del browser che, secondo la società, può essere utilizzata per verificare la legittimità dei video.  

“A lungo termine, dobbiamo cercare metodi più forti per mantenere e certificare l’autenticità degli articoli di notizie e di altri media”, hanno scritto Burt e Hovitz. "Oggi ci sono pochi strumenti per garantire ai lettori che i media che vedono online provengono da una fonte attendibile e che non sono stati alterati." 

Un'altra strada di ricerca è cercare altri segni che un video sia stato modificato. Con algoritmi di apprendimento automatico in grado di trasformare i video in una serie di contenuti e metadati - dalla trascrizione di qualsiasi discorso nel video alla posizione in cui è stato girato il video - la creazione di algoritmi di rilevamento basati sui contenuti potrebbe essere una possibilità, Mirsky di Georgia Tech dice. 

"Proprio come il malware, se si dispone di una tecnica in grado di esaminare il contenuto reale, questo è utile", afferma. “È molto importante perché alza l’asticella per l’attaccante. Possono mitigare il 90% degli attacchi, ma il problema è che un avversario come uno stato-nazione che ha tutto il tempo e gli sforzi per perfezionare il deepfake, diventa molto, molto difficile rilevare questi attacchi”.

Giornalista esperto di tecnologia da più di 20 anni. Ex ingegnere ricercatore. Scritto per più di due dozzine di pubblicazioni, tra cui CNET News.com, Dark Reading, Technology Review del MIT, Popular Science e Wired News. Cinque premi per il giornalismo, tra cui Best Deadline ... Visualizza la biografia completa

Letture consigliate:

Ulteriori intuizioni

Fonte: https://www.darkreading.com/analytics/deepfake-detection-poses-problematic-technology-race/d/d-id/1338953?_mc=rss_x_drr_edt_aud_dr_x_x-rss-simple

spot_img

L'ultima intelligenza

spot_img