I deepfake non sono altro che contenuti video ingannevoli generati tramite la sintesi di immagini umane basata sull’intelligenza artificiale. Sono costruiti sovrapponendo video e foto attraverso una tecnica di apprendimento automatico. I deepfake vengono diffusi soprattutto via social network per indirizzare l’opinione pubblica verso specifici argomenti politici e ideologici o temi secondari di merchandising e pubblicità con lo scopo di lucro.
In alcuni casi i contenuti deepfake sono difficili da riconoscere in quanto fatti talmente bene da sembrare reali. Spesso hanno come oggetto personaggi pubblici di diversi settori per far apparire la fonte attendibile. Anche in Italia molti personaggi dello spettacolo e non solo hanno dovuto smentire falsi contenuti nei quali veniva illecitamente utilizzato il loro volto per promuovere prodotti commerciali.
Elenco dei contenuti
Negli ultimi decenni l’intelligenza artificiale ha fatto passi da gigante nell’elaborare informazioni per generare risultati che richiederebbero l’intelligenza umana. Grazie all’ampia diffusione di computer sempre più sofisticati e potenti, da circa dieci anni si utilizzano i cosiddetti Big Data per estrarre informazioni. In tal modo anche le imprese più piccole possono avvalersi dell’uso di algoritmi più complessi basati su teorie di analisi numerica combinate con la statistica avanzata.
Ancor più recentemente sono stati intrapresi ulteriori studi per la simulazione delle reti neurali, ovvero modelli di neuroni connessi tra loro e addestrati con dati di esempio. Con l’evoluzione tecnologica dei computer è aumentata di livello la stessa complessità di tali reti, inserendo nuovi strati di neuroni nascosti per incrementare la difficoltà dell’elaborazione. Queste reti sono dette “profonde” e da qui hanno avuto origine i deepfake.
I deepfake sono dunque dei contenuti fake profondi in quanto generati con l’utilizzo di deep learning, cioè algoritmi che si basano su deep neural network ed hanno come obiettivo quello di apprendere le caratteristiche umane da simulare. La parola deepfake è apparsa per la prima volta nel 2017 su Reddit ed è stata rilanciata a livello internazionale dalla giornalista Samantha Cole. Si tratta principalmente di video, immagini o audio finti nei quali la persona in questione dice o fa cose che nella realtà non ha mai detto o fatto. Sostanzialmente si sovrappone un volto ad un altro corpo oppure un audio diverso ad un video.
Oggi i deepfake vengono impiegati per quattro scopi principali. Infatti, vengono realizzati in ambito accademico per studiare il fenomeno, per divertimento e goliardia, per fini giornalistici e soprattutto per compiere atti criminali a danno di altri.
Il primo esempio di deepfake accademico risale al 2017 ed è denominato Synthesizing Obama. Gli studiosi dell’Università di Washington hanno estratto un audio di un vecchio discorso del presidente ed hanno poi creato video differenti nei quali Obama pronunciava quelle parole con un perfetto realismo e sincronismo.
Di tipo più scherzoso e divertente sono i video deepfake che hanno come protagonista l’attore Nicholas Cage, il cui volto viene inserito in film che non ha mai girato. In questo caso sono per lo più esperimenti senza secondi fini, svolti da giovani programmatori che vogliono imparare queste tecniche. Di altra categoria sono i deepfake criminali che mostrano personaggi di Hollywood coinvolti in video pornografici con cui non hanno mai avuto a che fare. L’obiettivo è ovviamente l’estorsione ed episodi del genere sono sempre più diffusi.
Infine, ci sono i deepfake realizzati dagli organi di stampa per attirare l’attenzione su un fenomeno che può avere preoccupanti risvolti. Come non citare il finto messaggio di Natale del canale inglese Channel 4 nel quale una finta regina Elisabetta si rivolgeva ai sudditi dicendo cose improbabili. Al termine di questo video l’emittente ha mostrato il dietro le quinte del servizio per far comprendere agli spettatori come vengono realizzati i deepfake.
L’utente di Reddit che per primo ha parlato di deepfake ha anche creato FakeApp, la prima applicazione di questo genere. Successivamente sono stati sviluppati altri programmi open source come FaceSwap e DeepFaceLab, ma tutti questi software sono mediamente complessi da usare in quanto necessitano di computer di media-alta potenza di RAM e una buona scheda grafica per addestrare le reti neurali.
Uno dei software più comuni per produrre deepfake è Reface. In realtà è abbastanza basilare ed offre risultati piuttosto semplici e non sempre accurati. Grazie a questa app si possono sovrapporre volti su oggetti, sostituire il volto di un video usando quello di una foto, animare la faccia di un’immagine o far parlare un’immagine con movimenti delle labbra coerenti con l’audio.
I software più complessi e sofisticati riescono invece a generare risultati altamente realistici e spesso è molto complicato intuire se si tratta di un contenuto fake oppure vero. In molti casi ci sono video facili da smascherare perché contengono glitch, ovvero dei salti nella riproduzione di alcuni dettagli, ma con lo sviluppo tecnologico questi difetti oggi sono molto più rari.
Il MIT (Massachusetts Institute of Technology) in un suo articolo ha spiegato quali dovrebbero essere i principali difetti o discrepanze utili per capire se un video è autentico oppure se si tratta di un deepfake. Bisogna fare molta attenzione ai dettagli dei volti come guance, fronte, occhi e sopracciglia. Inoltre, è bene fare caso agli occhiali e ai riflessi, cioè se sono coerenti con l’illuminazione.
Altri elementi da valutare sul volto sono baffi, peli, nei e la dimensione e il colore delle labbra, così come il battito delle ciglia. Ulteriori componenti ai quali prestare attenzione sono le mani che spesso possono avere un dito un più o articolazioni innaturali. Infine, il MIT suggerisce di controllare le sfumature di colore della pelle e gli effetti di luce sulle varie parti del corpo della persona.
Ormai sempre più realistici e ben fatti, i deepfake sono spesso impiegati per commettere atti criminali oppure sfruttare l’immagine di personaggi noti per sponsorizzare prodotti e marchi in maniera illecita. Il problema sta diventando rilevante anche nel nostro Paese e alcuni enti nazionali e internazionali si sono attivati per informare un pubblico più vasto.
La Commissione Europea ha pubblicato delle linee guida sull’utilizzo dell’Intelligenza Artificiale nelle quali si dà una precisa definizione di deepfake (articolo 52, comma 3). In questo articolo del testo si richiama la dovuta trasparenza nell’indicare i video che sono stati manipolati. In tal senso l’Italia non si è fatta trovare impreparata e il Garante della Privacy ha redatto una scheda informativa per istruire i cittadini sull’argomento ed aumentarne la consapevolezza.