I deepfake sono molto più di una moda del momento. La sensazione è che l’attuale hype mediatico abbia fatto soltanto la punta di un iceberg, che nei prossimi anni potrebbe rivelare un potenziale dirompente in tutte le applicazioni multimediali. Tra rischi, opportunità e curiosità tecnologica, è sin d’ora opportuno interrogarsi su come normare la creazione di contenuti potenzialmente ingannevoli.

TAKEAWAY

  • I deepfake nascono convenzionalmente nel 2017, quando un omonimo gruppo su Reddit, successivamente bannato, pubblica i primi video creati con l’applicazione FakeApp.
  • I deepfake vengono usati con finalità dimostrative, mediante contenuti fan art prevalentemente destinati ai social media, ma possono essere utilizzati anche con finalità malevole, con furto di identità per il revenge porn, il cyberbullismo o le estorsioni con audio falsi.
  • Quale futuro attende i deepfake? Una sfida a colpi di intelligenza artificiale, che vedrà i creatori di fake opposti a coloro che avranno l’onere di smascherarne gli utilizzi criminali.

Il proliferare dei contenuti deepfake rinnova l’interesse per le applicazioni dell’intelligenza artificiale nei più svariati ambiti multimediali, con conseguenze che spaziano dalla satira alla grave minaccia informatica. Il deepfake può produrre immagini e video molto realistici, grazie a strumenti sempre più alla portata di tutti: dal semplice amatore al più avanzato centro di ricerca.

Il deepfake, nomen omen, è un falso, ma al tempo stesso un’opera creativa, da non stigmatizzare con una connotazione negativa. È doveroso riflettere, ancora una volta, sull’utilizzo etico di una tecnologia come l’intelligenza artificiale e sulla necessità di un quadro normativo in grado di intercettare le discipline che interessano il trattamento dell’immagine delle persone.

Cosa sono i deepfake: dai meme satirici alle grandi minacce informatiche

Come anticipato in sede di premessa, il deepfake è una tecnica basata sull’intelligenza artificiale, utilizzata per creare contenuti multimediali (immagini, audio, video), grazie alla combinazione di un contenuto esistente con un contenuto originale. Tale risultato è appunto un fake sintetico, generato grazie a tecniche di apprendimento automatico come le reti generative avversarie (GAN).

Le applicazioni deepfake più diffuse sono ben presto divenute virali nella rete: sostituire il volto di un attore con un altro, far dire a Obama, Trump e Putin cose che non hanno mai detto, far cantare “Immigrato” a Salvini piuttosto che a Checco Zalone o, ancora, sostituire le fattezze di Renzi a quelle di Mr. Bean, chiedendosi chi dei due sia più comico.

In questi casi, il falso è dichiarato e corrisponde quasi sempre ad intenzioni bonarie, per divertirsi con la tecnologia strappando un po’ di like sui social e qualche sorriso alle persone. Tuttavia, come vedremo nei paragrafi successivi, le intenzioni non sempre si rivelano scherzose. Dietro ai deepfake molto spesso si celano addirittura vere e proprie azioni criminali.

Ad oggi oltre il 90% dei deepfake presenti in rete è di natura pornografica, con video generati utilizzando i volti delle celebrità. In questi contesti, non si va in genere oltre la fan art voyeuristica o qualche tentativo di frode.

Applicando le stesse tecniche, non mancano però episodi legati al revenge porn e al cyberbullismo, laddove il deepfake può diventare un potente alleato di chi vuole approfittare di soggetti fragili, spesso impossibilitati a difendersi e messi nelle condizioni di non denunciare i fatti alle forze dell’ordine. La relativa facilità nel creare un deepfake ne agevola la diffusione anche da parte di chi non è propriamente un drago nell’informatica.

Come funzionano i deepfake: le reti generative avversarie (GAN)

La genesi del deepfake, il cui termine, nel plurale deepfakes, è stato coniato nel 2017 da un omonimo gruppo su Reddit, può esser fatta risalire a pochi anni prima, quando l’AI scientist Ian Goodfellow ha introdotto le GAN (Generative Adversarial Network), il cui funzionamento almeno a livello logico è piuttosto semplice: due reti neurali vengono addestrate in maniera competitiva all’interno di un framework di gioco, che consente di apprendere come generare nuovi contenuti sulla base della distribuzione dei dati utilizzati in fase di apprendimento.

Attualmente Ian Goodfellow è il direttore della divisione Machine Learning di Apple, che lo ha sottratto a peso d’oro a Google, dove ha lavorato fino al 2019, occupandosi tra l’altro dello sviluppo di TensorFlow, una delle piattaforme di machine learning open source più diffuse in assoluto.

Riferendoci ad un deepfake video, la rete generativa avversaria (GAN) è composta da una rete neurale generativa, allenata per creare un nuovo video in cui ad esempio un volto viene sostituito all’originale, e da una rete neurale discriminatoria che ha il compito di rilevare, pixel per pixel, gli artefatti equivalenti ad un possibile fake. La continua sfida tra le due reti genera innesca un processo di apprendimento competitivo, grazie al quale la GAN riesce a produrre risultati sempre più efficaci.

Se le GAN, nella loro continua evoluzione, rappresentano lo stato dell’arte per la creazione dei deepfake, esistono tuttavia anche metodi più semplici, sia da gestire che da allenare.

L’intelligenza artificiale alla portata di tutti: FakeApp e i suoi fratelli

La crescente popolarità dei deepfake ha portato allo sviluppo di software, spesso e volentieri open source, basati su algoritmi capaci di generare contenuti multimediali falsi, con modalità più accessibili rispetto a quelle richieste dalle GAN più evolute.

Ben noto alle cronache è il caso di FakeApp, un’applicazione sviluppata e diffusa dal gruppo/deepfakes su Reddit, ben presto bannato dagli admin del popolare social network per via degli eccessi pornografici che ne sono derivati.

FakeApp ha aperto una nuova era per gli appassionati di deepfake, e ben presto sono stati avviati altri progetti, spesso sostenuti da gruppi di ricerca universitari, come DeepFaceLabs, FaceSwap, piuttosto che myFakeApp.

Grazie a questi encoder, qualche bel tutorial e un po’ di ore di sano autoapprendimento, anche un non addetto ai lavori può creare e diffondere nella rete un deepfake, anche senza scrivere una sola riga di codice.

Cosa hai fatto in tutti questi anni? Sono andato a letto presto”

I social network sono diventati terreno fertile per molti YouTuber come Shamook, celebre autore di deepfake cinematografici amatoriali, di cui ricordiamo il lavoro svolto per il ringiovanimento (de-aging) di Robert De Niro in The Irishman, di Martin Scorsese.

Tale contributo ha aperto un fervente dibattito tra gli appassionati di cinema ed effetti visivi, dal momento che molti ritengono che il deepfake, ottenuto sulla base di un dataset contenente molte immagini giovanili di De Niro, fosse per molti aspetti più credibile nella resa rispetto all’enorme lavoro della produzione originale, svolto da ILM in computer grafica 3D sulla base di un tracciamento facciale ripreso dal vero.

Un risultato di tale livello, ottenuto con strumentazioni domestiche da parte di un singolo utente deve far riflettere sotto molti aspetti relativi al miglioramento finale degli effetti visivi, ma soprattutto mette in evidenza un aspetto fondamentale per la buona riuscita di qualsiasi deepfake: la qualità dei dataset utilizzati per allenare le applicazioni AI.

Nel caso di Robert De Niro erano disponibili migliaia di immagini, svariate ore tratte da pellicole tra cui Taxi Driver, Il padrino e C’era una volta in America. DeepFaceLabs ha avuto gioco relativamente facile a ringiovanire la varietà espressiva in tutte le angolazioni necessarie.

Pronto, sono Tim Cook…”: come fregare un sacco di soldi con un deepfake audio

Come abbiamo visto, un video fake può comportare minacce anche molto serie a livello di privacy, ma è tutto sommato relativamente semplice da sgamare, vuoi per un livello di realismo tuttora non ottimale, vuoi per il fatto che spesso gli autori sono ben lungi dall’essere dei professionisti del videomaking. Ben differente è il caso dei deepfake audio, ad oggi estremamente efficaci nel persuadere e trarre in inganno una controparte ai fini di ottenere un vantaggio illecito.

Ogni anno crescono in maniera evidente le truffe informatiche ai danni delle aziende, spesso con sistemi poco più raffinati di uno scherzo telefonico ben riuscito. Una truffa ricorrente consiste in false comunicazioni da parte di dirigenti di alto livello, impiegate per richiedere ai veri dipendenti di un’azienda urgenti trasferimenti di denaro presso conti esterni, ovviamente truffaldini.

Le informazioni vocali utilizzare per allenare le reti neurali non sono materiale da 007, in quanto, data la celebrità dei soggetti coinvolti, in rete si trovano comodamente moltissimi loro contributi, cui far riferimento per la costruzione di un dataset.

Difendersi da una minaccia di questo genere non è semplice in quanto difficilmente un dipendente di un’azienda rifiuterebbe l’ordine diretto ed urgente di un superiore, oltretutto se la sua voce corrisponde all’originale.

Le aziende devono quindi creare a priori delle policy interne per evitare che tali situazioni possano verificarsi, eventualmente avvalendosi di sistemi di autenticazione avanzati, senza deroghe di sorta per i CEO piuttosto che per l’ultimo assunto.

L’appropriazione indebita di denaro attraverso il furto di identità vocale non è l’unica minaccia derivante da un deepfake audio, che potrebbe essere utilizzato anche per un sabotaggiocome suggerisce Michael Grothaus su Fast Company, che esemplifica il concetto ipotizzando un audio fake di Tim Cook, con le sembianze di una conversazione privata in cui citerebbe un imminente crollo di vendite per gli iPhone.

Una simile eventualità potrebbe provocare una bella batosta azionaria per Apple. Strategie analoghe potrebbero altrimenti essere impiegati per causare danni reputazionali ad aziende rivali.

Leggi e tutele contro i rischi dei deepfake

Tra opportunità e minacce, i deepfake rappresentano un fenomeno molto giovane, di cui forse dobbiamo ancora comprendere l’effettiva portata, ma il loro potenziale lascia intuire l’opportunità di una regolamentazione specifica.

I nascenti regolamenti sull’intelligenza artificiale e le leggi degli stati dovrebbero in qualche modo porre un argine all’impiego indiscriminato dei deepfake, senza tuttavia discriminarne gli impieghi leciti ed eticamente sostenibili.

Già nel 2019 lo Stato della Virginia ha pubblicato una legge che condanna in maniera esplicita il revenge porn con video deepfake. Nel loro difficile compito, i legislatori dovranno soprattutto contestualizzare i materiali deepfake con i reati correlati, per cui esistono già dei provvedimenti specifici.

A livello tecnologico, l’antidoto più diffuso coincide con l’utilizzo di reti antagoniste per smascherare i deepfake, secondo le logiche stesse delle GAN e degli algoritmi che li generano. Esistono vari studi ed applicazioni in merito ed il loro ruolo sarà fondamentale soprattutto in ambito forense. La sfida è più che mai aperta.

Scritto da:

Francesco La Trofa

Giornalista Leggi articoli Guarda il profilo Linkedin