I video falsi perfetti saranno riconosciuti dall'intelligenza artificiale
I video falsi perfetti saranno riconosciuti dall'intelligenza artificiale

Video: I video falsi perfetti saranno riconosciuti dall'intelligenza artificiale

Video: I video falsi perfetti saranno riconosciuti dall'intelligenza artificiale
Video: Don't Choose Wrong! Canon EF-S 24mm f2.8 STM vs EF 50mm f1.4 USM - YouTube 2024, Marzo
Anonim
La prima dell'opera sull'avvelenamento di Litvinenko inizia in Inghilterra
La prima dell'opera sull'avvelenamento di Litvinenko inizia in Inghilterra

Un anno fa, Manish Agrawala di Stanford ha aiutato a sviluppare una tecnologia di sincronizzazione labiale che ha permesso agli editor video di alterare le parole degli oratori in modo quasi impercettibile. Lo strumento potrebbe facilmente inserire parole che una persona non ha mai pronunciato, anche nel mezzo di una frase, o cancellare parole che ha detto. Tutto sembrerà realistico a occhio nudo e persino a molti sistemi informatici.

Questo strumento ha reso molto più semplice correggere gli errori senza riprendere intere scene e ha anche adattato programmi TV o film per un pubblico diverso in luoghi diversi. Ma questa tecnologia ha anche creato nuove inquietanti opportunità per video falsi difficili da trovare, con il chiaro intento di distorcere la verità. Ad esempio, un recente video repubblicano ha utilizzato una tecnica più ruvida per un'intervista con Joe Biden.

Questa estate, Agrawala e i colleghi di Stanford e UC Berkeley hanno svelato un approccio basato sull'intelligenza artificiale alla tecnologia di sincronizzazione labiale. Il nuovo programma rileva con precisione oltre l'80% dei falsi, riconoscendo le più piccole discrepanze tra i suoni delle persone e la forma delle loro bocche.

Ma Agrawala, direttore dello Stanford Institute for Media Innovation e professore di informatica al Forest Baskett, che è anche affiliato allo Stanford Institute for Human-Centered Artificial Intelligence, avverte che non esiste una soluzione tecnica a lungo termine per i falsi profondi.

Come funzionano i falsi

Ci sono ragioni legittime per la manipolazione dei video. Ad esempio, chiunque stia filmando un programma televisivo, un film o una pubblicità fittizia può risparmiare tempo e denaro utilizzando strumenti digitali per correggere errori o personalizzare gli script.

Il problema sorge quando questi strumenti vengono utilizzati deliberatamente per diffondere informazioni false. E molte delle tecniche sono invisibili allo spettatore medio.

Molti video deep fake si basano sullo scambio di volti, sovrapponendo letteralmente il volto di una persona al video di un'altra persona. Ma mentre gli strumenti per cambiare volto possono essere convincenti, sono relativamente grezzi e di solito lasciano artefatti digitali o visivi che un computer può rilevare.

D'altra parte, le tecnologie di sincronizzazione labiale sono meno visibili e quindi più difficili da rilevare. Manipolano una porzione molto più piccola dell'immagine e quindi sintetizzano i movimenti delle labbra che corrispondono esattamente a come si muoverebbe effettivamente la bocca di una persona se pronunciasse determinate parole. Secondo Agrawal, dati sufficienti campioni dell'immagine e della voce di una persona, un produttore falso può far “dire” qualsiasi cosa a una persona.

Rilevamento contraffazione

Preoccupato per l'uso non etico di tale tecnologia, Agrawala ha lavorato con Ohad Freed, uno studente di dottorato a Stanford, per sviluppare uno strumento di rilevamento; Hani Farid, professore all'Università della California, Berkeley School of Information; e Shruti Agarwal, uno studente di dottorato a Berkeley.

All'inizio, i ricercatori hanno sperimentato una tecnica puramente manuale in cui gli osservatori studiavano le riprese video. Ha funzionato bene, ma in pratica è stato laborioso e dispendioso in termini di tempo.

I ricercatori hanno quindi testato una rete neurale basata sull'intelligenza artificiale che sarebbe molto più veloce per fare la stessa analisi dopo l'allenamento in video con l'ex presidente Barack Obama. La rete neurale ha rilevato oltre il 90% della sincronizzazione labiale di Obama, sebbene l'accuratezza per gli altri oratori sia scesa a circa l'81%.

Una vera prova della verità

I ricercatori affermano che il loro approccio è solo una parte del gioco del gatto e del topo. Man mano che le tecniche di falsificazione profonda migliorano, lasceranno ancora meno chiavi.

In definitiva, afferma Agrawala, il vero problema non è tanto combattere i video profondamente falsi quanto combattere la disinformazione. In effetti, osserva, gran parte della disinformazione deriva dalla distorsione del significato di ciò che la gente ha effettivamente detto.

"Per ridurre la disinformazione, dobbiamo migliorare l'alfabetizzazione mediatica e sviluppare sistemi di responsabilità", afferma. "Ciò può significare leggi che vietano la produzione deliberata di disinformazione e le conseguenze della loro violazione, nonché meccanismi per eliminare il danno risultante".

Consigliato: