Questo accadde nel 2017, quando una clip che rappresentava un “finto” Barack Obama divenne virale su Internet. Milioni di persone hanno visto il video su YouTube e sui media di tutto il mondo.
Con un software, un po’ di tempo e un po’ di esperienza, i ricercatori dell’Università di Washington sono riusciti a fare qualcosa che non era mai stato realizzato prima: l’iperrealismo tecnologico. “Stiamo entrando in un’era in cui chiunque o i nostri nemici possono fare e dire qualsiasi cosa in qualsiasi momento“, si ascoltava nel video del finto Obama. La stessa tecnologia consentiva anche lo sviluppo di “identità duplicate” del presidente russo Vladimir Putin o dell’attuale presidente degli Stati Uniti Donald Trump.
Ma iniziarono anche a comparire video pornografici in cui i volti delle attrici originali venivano modificati da quelli di altre persone. Questo è il motivo per cui molti hanno detto che il “deepfake” è la nuova vendetta porno.
“È importante che il pubblico sia consapevole delle capacità della tecnologia moderna di generare e modificare video“, ha dichiarato Michael Zollhöfer, professore alla Stanford University, che ha sviluppato un nuovo strumento per i video deepfake. Ma non è meno importante essere attenti ai segni che consentono di identificarli. La chiave, spiegano Yuezun Li, Ming-Ching Chang e Siwei Lyu in una ricerca pubblicata dalla Cornell University di New York, è nei movimenti degli occhi. “Il nostro metodo si basa sulla rilevazione del battito degli occhi nei video, che è un segnale psicologico che non è ben rappresentato nei video falsi
“, spiegano i ricercatori.La soluzione, quindi, per sapere se un video è falso, spiegano gli esperti, è prestare attenzione agli occhi e al modo e al numero di volte in cui sono chiusi. I protagonisti del “deepfake” non battono le palpebre come gli umani. Una persona, in media, sbatte le palpebre 17 volte al minuto. Ma poiché la maggior parte delle fotografie non cattura le persone con gli occhi chiusi, anche quelli che appaiono nei video “deepfake” non li chiudono. “Gli algoritmi di ‘deepfake’ ereditano questo difetto di base“, spiega Siwei Lyu.
Attraverso uno strumento che monitora i movimenti degli occhi nei videomontaggi, Lyu e il suo team sono stati in grado di distinguere i video falsi con un’accuratezza del 99%. Forse questo cambierà nei prossimi mesi o anni, man mano che le tecniche per creare quei video avanzeranno.
Con il progredire della tecnologia, le nostre possibilità di scoprire manipolazioni saranno minori. “Probabilmente non c’è nulla che possiamo fare, ma cercare di combattere gli inganni quando vengono alla luce, fare pressione sulle società di social networking per combattere decisamente contro la disinformazione e fidarsi dei nostri occhi un po’ meno ogni giorno“, continuano i ricercatori.
Queste sono alcune indicazioni a cui, secondo gli specialisti di “deepfake”, occorre stare attenti per sospettare di un video: