Deepfake – quando le prove video mentono
Rischi di Internet
Non si deve per forza credere a tutto quello che passa per la rete –tanto più se si tratta di un video. I cosiddetti deepfake, ovvero contenuti multimediali falsificati per mezzo dell’intelligenza artificiale, imperversano sempre più spesso sui social media e un po’ dappertutto nel web. Spesso sono lì per diffondere fake news. I deepfake sono un problema non soltanto per i vip e per i politici.
![iBarry davanti a una foto pixelata sullo schermo](/images/hero_l/ibarry-deepfake-web-1004x580px.jpg)
Quando si trova qualcosa in Internet e quasi non si crede ai propri occhi, probabilmente si ha a che fare con un deepfake. La parola mette insieme il termine «Deep Learning» e «Fake», ovvero la parola inglese per definire una notizia falsa. Il deep learning è una forma di intelligenza artificiale (IA). Ciò significa che un’IA «apprende» dagli esempi e può quindi emulare di conseguenza ciò che ha imparato. Ed è proprio questo quello che fanno i deepfake. Innanzitutto, l’intelligenza artificiale impara ad esempio a riconoscere il viso di una persona. Successivamente il viso potrà essere inserito in un qualsiasi video.
I deepfake possono presentarsi in varie forme quindi:
- sostituire un viso;
- sostituire il labiale (in modo che la stessa persona pronunci un altro testo);
- imitare la voce di una persona;
- creare avatar digitali (viso e voce realizzati in maniera del tutto artificiale).
Un deepfake in sé per sé non è ancora considerato come un atto criminale. Tra gli utilizzi ritenuti legali rientrano ad esempio:
- produzioni cinematografiche e televisive per l’intrattenimento (vedi gli esempi al termine del contributo);
- realizzazioni per opere d’arte o satira;
- applicazioni nella ricerca scientifica;
- integrazione nelle soluzioni per videoconferenze per ridurre il fabbisogno di larghezza di banda.
Sebbene i deepfake non siano illegali, ciononostante è possibile trasgredire la legge; soprattutto per quanto riguarda la protezione dei dati e i diritti d’autore. Spesso i deepfake vengono utilizzati addirittura per scopi illegali o chiaramente discutibili. Tra questi:
- Pornografia: moltissimi deepfake sono di natura pornografica. Per questo i visi di persone, ad esempio attrici e attori famosi o ex partner, vengono aggiunti a contenuti pornografici.
- Fake news: la diffusione di notizie false e «fake news», ad esempio per le elezioni o ultimamente per la guerra in Ucraina.
- Truffa del falso CEO: i deepfake portano le truffe del falso CEO alla fase successiva: i cybercriminali ad esempio imitano la voce del direttore di un’azienda e cercano telefonicamente di abilitare un pagamento.
- Falsi candidati: i deepfake vengono utilizzati ad esempio anche durante i colloqui di lavoro online. I cybercriminali nascondono quindi la propria identità, mentre cercano di accedere ai dati relativi ai clienti o ai dati aziendali.
- Ricatto: con i deepfake si possono creare immagini e video che mostrano persone in evidente atteggiamento immorale o illegale, al fine di ricattare questi stessi soggetti.
Al momento attuale, il numero di casi in cui i deepfake sono stati utilizzati per truffe cybercriminali è ancora sotto controllo. La tecnologia, tuttavia, continua a evolversi in modo sempre più veloce. La capacità di calcolo necessaria viene continuamente testata e la qualità migliora sempre di più. È quindi presumibile che i problemi legati ai deepfake aumenteranno continuamente.
Come si riconoscono i deepfake
Una buona dose di scetticismo può aiutare a restare in sicurezza anche nell’era dei deepfake. Non importa cosa si vede e si ascolta: è vero solo ciò che può essere verificato. Sulla base dell’attuale stato della tecnologia, i deepfake, almeno in questo momento, sono riconoscibili soltanto se si guarda attentamente. Chi pensa di trovarsi di fronte a un deepfake dovrebbe prestare attenzione ai seguenti punti:
- Sano buon senso: è normale che la persona nel video compia quella determinata azione? Se in Internet circola qualcosa di sospetto, di norma vale la pena verificare innanzitutto quello che abbiamo trovato, prima di condividerlo.
- Movimenti della testa innaturali: il viso sembra muoversi spesso in maniera leggermente diversa rispetto al resto del corpo. Ciò ha un effetto insolito o innaturale (Uncanny Valley).
- Guardare con attenzione: i movimenti veloci talvolta scompaiono durante l’editing di un video. Ciò significa che si sente comunque tossire o starnutire, ma non si vede il corrispondente movimento della testa.
- Dettagli: dato che i deepfake vengono generati automaticamente, spesso si mostrano irregolarità nei piccoli dettagli, come ad esempio gli occhiali, il trucco sul viso o i riflessi della luce negli occhi delle persone inquadrate.
- Frame by frame: se si guarda un video immagine per immagine, le incongruenze si notano subito.
- Girare la testa: se abbiamo un dubbio nei confronti della persona che ci sta di fronte durante una videoconferenza, si dovrebbe chiedere alla persona in questione di girarsi su un fianco. Di norma il deepfake non sa più dove dovrebbe essere aggiunto il viso nell’immagine in maniera corretta.
- Verifica dei fatti: un potenziale video deepfake si trova anche su siti web di notizie attendibili? Oppure si trova forse lo stesso video non editato se si cerca su Google una descrizione del video?
Diverse università annunciano già di essere riuscite a riconoscere automaticamente i deepfake. Un team dell’Information Sciences Institute della University of Southern California ad esempio riconosce i deepfake con un livello di affidabilità del 96%.
E come si può evitare di diventare noi stessi vittima di un deepfake?
Un deepfake convincente richiede molto materiale video e audio della persona da falsificare. Chi ci tiene a salvare la propria faccia non dovrebbe esporsi molto in rete. Se non esistono registrazioni della voce o del viso di una persona o se le registrazioni sono incomplete, l’intelligenza artificiale non può imitare la persona in questione.
Maggiori informazioni
YouTube
Deepfake in Star WarsYouTube
Video musicale «The Heart Part 5» di Kendrick LamarUSC Information Sciences Institute, USA
Lavoro di ricerca per il riconoscimento di deepfake tramite l’IACornell University
Metodo per il riconoscimento di deepfake sulla base di irregolarità nei riflessi della luce