In tempi piuttosto recenti se ne sono occupate anche Le Iene, con diversi servizi che hanno fatto ben capire i pericoli che si celano dietro al fenomeno. Parliamo del deepfake porn, un ignobile trend per cui, attraverso programmi di intelligenza artificiale di manipolazione delle immagini, persone ignare si trovano protagoniste di video o foto dal contenuto pornografico.

Tutto è partito dai deepfake, allargandosi poi al mondo del porno, e a oggi il dark web è pieno di siti che propongono filmati e foto completamente modificate, di cui le persone coinvolte non hanno la minima idea.

È chiaro che un fenomeno del genere lasci ampio spazio ad azioni orribili come il revenge porn o l’imaged-based sexual abuse, e le vittime non possono davvero fare nulla per prevenire il problema, visto che nella stragrande maggioranza dei casi sono totalmente all’oscuro di essere state usate per costruire ad hoc clip e foto pornografiche.

Il fenomeno deepfake

Se vi è mai capitato di vedere l’ex presidente USA Barack Obama chiamare Donald Trump un “idiota completo”, o Mark Zuckerberg vantarsi di avere “il controllo totale dei dati rubati di miliardi di persone”, avete visto un deepfake.

Parliamo di una forma di intelligenza artificiale chiamata deep learning, che crea immagini di eventi falsi, da cui il nome deepfake. Sono vere e proprie bufale costruite grazie alla tecnologia, che naturalmente alimentano fake news e disinformazione.

I deepfake sono nati nel 2017, quando un utente di Reddit ha pubblicato video porno le cui protagoniste erano le artiste Gal Gadot, Taylor Swift e Scarlett Johansson, ovviamente finti, realizzati proprio tramite il deep learning.

Per realizzare un deepfake non sono necessari moltissimi passaggi, e anche questo è uno degli aspetti che l’ha reso così diffuso; sono sufficienti migliaia di frame dei visi di due persone, scambiati attraverso un algoritmo di intelligenza artificiale chiamato encoder che, trovando e acquisendo le somiglianze tra le due facce e circoscrivendo le caratteristiche comune, comprime le immagini.

Un secondo algoritmo, il decodificatore, recupera i volti dalle immagini compresse; dato che i volti sono diversi, sono necessari due decodificatori per recuperare i due volti ma basta inserire le immagini codificate nel decodificatore sbagliato per creare un deepfake: quindi, ad esempio, inserendo un’immagine compressa del viso della persona A nel decodificatore addestrato per la persona B, quest’ultimo ricostruirà il viso della persona B con le espressioni e l’orientamento del viso A.

È difficile creare un buon deepfake su un computer standard. La maggior parte viene creata su desktop di fascia alta con potenti schede grafiche o, meglio ancora, con potenza di calcolo nel cloud, cosa che permette di ridurre il tempo di elaborazione da giorni e settimane a ore. Ma è necessaria anche una buona dose di esperienza, per ridurre i rimanenti difetti visivi.

E questo, se possibile, è un aspetto ancor più preoccupante, perché se da un lato significa che non tutti possono creare dei deepfake, dall’altro vuol dire che quelli creati sono davvero difficili, per non dire impossibili, da riconoscere, perché ideati da menti che hanno le giuste skill per ingannare le persone in maniera efficace.

Cos’è il deepfake porn

Se il deepfake, di per sé, è pericolo perché, come detto, può contribuire ad alimentare bufale e fake news su Internet, ancor peggio è sicuramente il deepfake porn. Secondo il Guardian la società di intelligenza artificiale Deeptrace, solo nel settembre 2019, ha trovato online 15.000 video deepfake, il 96% dei quali era porno, con il 99% dei volti “presi” da celebrità femminili.

Secondo un servizio de Le Iene tra il 2018 e il 2019 i casi di deepfake porn sono raddoppiati, passando da 7000 circa a oltre 14000; un segnale inquietante che il fenomeno sia in costante aumento.

Intrinsecamente legato al deepfake porn è ovviamente il deepnude, di cui vi abbiamo parlato anche in questo articolo.

Si tratta di un’app che permette di “spogliare” le persone, realizzando quindi foto di nudo che ovviamente non sono mai state scattate. Se negli anni ’60 e ’70 c’erano i famosi occhiali a raggi X che promettevano di far vedere cosa si celasse sotto i vestiti delle donne, con Deepnude le foto di nudo erano davvero realistiche, con tutte le terribili conseguenze del caso.

Perché il deepfake porn è pericoloso?

Ovviamente conosciamo molto bene i pericoli del revenge porn e dell’imaged-based sexual abuse, in cui spesso alla base c’è un iniziale consenso della vittima a realizzare foto o video intimi, salvo poi ritrovarsi quegli stessi filmati o scatti condivisi sul Web.

Sappiamo anche quanto alcuni gruppi Telegram si nutrano proprio di revenge porn per guadagnare e che, nonostante molti di loro vengano ciclicamente chiusi, il fenomeno non accenna ad arrestarsi.

Immaginiamoci quindi cosa significhi trovarsi protagonisti/e di video o foto di nudo di cui non solo non siamo a conoscenza, ma che non abbiamo mai realizzato veramente, solo perché un programma di manipolazione delle immagini riesce letteralmente a toglierci i vestiti di dosso o a renderci protagonisti/e di video o foto a sfondo sessuale.

Ho ricevuto alcuni messaggi dal mio ex ragazzo, con cui avevo rotto poco tempo prima, che diceva di aver photoshoppato alcune mie immagini – ha spiegato alla BBC una vittima – Un paio di mesi dopo, ho ricevuto un’e-mail dal moderatore di un sito porno amatoriale che diceva, ‘Sei sicura di volerli mettere su Internet?’ Si è scoperto che il mio ex aveva deciso di caricare una serie di immagini mie in un sacco di porno abbastanza espliciti, usando il mio vero nome completo.

Ci sono, ovviamente, anche vittime celebri, come la scrittrice Helen Mort, che nel 2017 ha trovato alcune sue foto nuda, mai fatte, in giro sul web.

Rimuovere le immagini non è la parte più difficile – ha detto – Sicuramente non per me. Sono sparite abbastanza rapidamente, ma avevo conservato degli screenshot come prova. Volevo però contattare la polizia, senza sapere che non poteva aiutarmi perché in Inghilterra non è considerato reato manipolare le immagini in quel modo.

 Come limitare il deepfake porn

Proprio per i motivi che abbiamo finora descritto, contrastare il deepfake porn è tutt’altro che semplice; non da ultimo, anche l’Unione Europra ha espresso preoccupazione per il fenomeno, parlandone nella Risoluzione del Parlamento Europeo del 20 gennaio 2021 sull’intelligenza artificiale avente ad oggetto: “Questioni relative all’in­terpretazione e applicazione del diritto inter­nazionale nella misura in cui l’UE è interessata relativamente agli impieghi civili e militari e all’autorità dello Stato al di fuori dell’ambito della giustizia penale”.

Uno dei primi Stati a prendere provvedimenti nei confronti del deepfake è stata la Virginia, che nel 2019 ha promulgato una legge prevedendo pene che comprendono un anno di carcere e una multa fino a 2500 dollari per chiunque diffonda “immagini video o contenuti creati in modo falso”.

Gli Stati Uniti, in generale, sembrano i più attivi nella lotta al deepfake, tanto che negli anni sono state avanzate tre proposte legislative: la prima, depositata dal senatore Ben Sasse, criminalizza la creazione e la distribuzione di questi contenuti; la seconda, nata su iniziativa della deputata dei democratici Yvette Clark, si chiama Deep Fakes Accountability Act e prevede l’obbligo, per ogni persona che crea un deepfake, di dichiarare che il video è stato realizzato attraverso “filigrane digitali irremovibili e descrizioni testuali”, pena la punibilità di un reato federale, e la possibilità, per chi è stato danneggiato, di fare causa a chi l’ha creato.

Lo stato di New York ha invece presentato una proposta di legge che accosta alla definizione legale di truffatore chiunque crei di proposito video, audio o immagini fake senza il consenso della persona interessata. Si prevede inoltre la possibilità di un risarcimento per le vittime.

In Italia, invece, benché il Garante per la protezione dei dati personali abbia aperto nel 2020 un’istruttoria sul social network Telegram, la legge è ancora lacunosa in merito al fenomeno. Esiste infatti un profondo vuoto normativo riguardante l’articolo 612 ter Codice penale, che regola il reato di diffusione illecita di immagini o video sessualmente espliciti.

L’articolo, infatti, recita:

Salvo che il fatto costituisca più grave reato, chiunque, dopo averli realizzati o sottratti, invia, consegna, cede, pubblica o diffonde immagini o video a contenuto sessualmente esplicito, destinati a rimanere privati, senza il consenso delle persone rappresentate, è punito con la reclusione da uno a sei anni e con la multa da euro 5.000 a euro 15.000. La stessa pena si applica a chi, avendo ricevuto o comunque acquisito le immagini o i video di cui al primo comma, li invia, consegna, cede, pubblica o diffonde senza il consenso delle persone rappresentate al fine di recare loro nocumento.

Sembra, quindi, che la discriminante in questo caso sia rappresentata dal fatto di distribuire video e foto “destinati a rimanere privati”, partendo dal presupposto che siano stati realizzati con consensualità. Ma cosa fare se ignoriamo di essere stati/e denudati/e e ritroviamo foto o video finti sul web?

La discussione continua nel gruppo privato!
Seguici anche su Google News!