Deepfake: l’intelligenza artificiale sta alterando il nostro senso della realtà?

Uno studio congiunto del Department of Psychology della Lancaster University (UK) e del Department of Electrical Engineering and Computer Sciences dell’Università di Berkeley, in California, indaga l’impatto dell’intelligenza artificiale sul meccanismo cognitivo che porta l’essere umano a fidarsi di più di un deepfake che non del reale.

TAKEAWAY

  • Uno dei test che hanno scandito un recente studio USA in tema di deepfake e percezione del falso, ha visto i partecipanti esprimere un giudizio sull’affidabilità evocata dai volti reali e da quelli generati dall’AI, valutando questi ultimi come più affidabili, con uno scarto di percentuale di per sé minimo (7,7%) ma indicativo dal punto di vista statistico.
  • Il perché di tale giudizio sta nel fatto che i deepfake oggetto dell’esperimento mostravano caratteristiche che li avvicinavano alla normalità, percepite, dunque, come più rassicuranti rispetto ai tratti dei visi reali, meno omologati e meno conformi a modelli acquisiti.
  • I dati rilevati da questa ricerca ci inducono a fare una riflessione in merito agli effetti che le immagini sintetiche hanno sulla nostra percezione del reale, considerando la possibilità di linee guida e di un codice etico che regolino lo sviluppo e la distribuzione delle tecnologie che vi sono alla base.

Al di là delle considerazioni di carattere etico sull’utilizzo delle tecniche di intelligenza artificiale per generare dati sintetici capaci di emulare in modo assai credibile immagini, video e audio a scopo malevolo – che, in questo scritto, non ci preme trattare – quando ci troviamo di fronte a deepfake e, accanto a questi, a immagini non sintetiche, qual è la nostra percezione del falso e del reale? Che valutazione diamo di entrambi? La domanda non è se siamo in grado di distinguerli, di coglierne le sottili differenze (quasi impossibile con le tecniche attuali), ma perché, di fronte alla possibilità di scegliere tra volti falsi – che in realtà non esistono poiché creati dalla macchina – e volti reali, ci accade di considerare i primi come “veri”.

Uno studio pubblicato sulla rivista scientifica PNAS (Proceedings of the National Academy of Sciences) il 14 febbraio 2022, a cura del Dipartimento di Psicologia della Lancaster University (UK) e del Department of Electrical Engineering and Computer Sciences dell’Università di Berkeley, in California, è partito da tale domanda per indagare l’impatto dell’AI sul nostro senso della realtà, sul meccanismo cognitivo che porta l’essere umano a fidarsi di più di un deepfake che non del reale, a considerarlo più rassicurante.

Deepfake e percezione del falso: l’evoluzione delle tecniche per la sintesi del reale

Lo sviluppo di sempre nuove tecniche in grado di rilevare i deepfake e, dunque, di supportarci nella percezione del falso e nella sua distinzione dal mondo reale, non si arresta. Oggi assistiamo addirittura a sistemi di intelligenza artificiale che, per mezzo di tecniche di deep learning, esaminano i dipinti per verificarne l’autenticità. Ma, nonostante tali progressi nella direzione del “vero”, non siamo ancora sufficientemente protetti di fronte alla mole di false immagini e di falsi video in cui quotidianamente ci imbattiamo nella rete, assistendo sempre più di frequente a fenomeni illeciti di sostituzioni di identità, di creazione di immagini non consensuali, frodi e campagne di disinformazione. E questo perché anche l’evoluzione di tecniche AI per la creazione di foto, di video e di conversazioni di persone che non esistono, non si ferma. In particolare, negli ultimi quattro anni, queste tecniche sono migliorate grazie a un algoritmo nell’ambito del machine learning definito “rete generativa avversaria” (in inglese, Generative Adversarial Network – GAN), comprendente una serie di metodi atti a contrappone due reti neurali addestrate in maniera competitiva, dove «la prima cerca di individuare i falsi e la seconda cerca di generarne di più convincenti. Dato un tempo sufficiente, la GAN è poi pronta per generare contraffazioni notevolmente buone» spiegano gli autori dello studio.

A conferma che la bontà, l’eticità dell’intelligenza artificiale dipende dall’uso che ne facciamo, ricordiamo – per completezza di informazione – che i deepfake trovano anche applicazioni benevole, che spaziano dal multimediale, fino a interessare il mondo del cinema e dell’arte. E, inoltre, la Generative AI – dai quali i deepfake derivano – guarda al Generative Design, insieme di tecnologie volte a dare vita a manufatti e ad architetture inediti sotto il profilo della progettazione e della produzione.

Focus sul livello di affidabilità evocato dai volti sintetici e dai volti reali

Lo studio condotto dalla Lancaster University e dall’Università di Berkeley in tema di deepfake e percezione del falso è consistito, in particolare, nell’eseguire una serie di esperimenti percettivi con l’obiettivo di arrivare a comprendere qual è il livello di fiducia evocato dalle immagini di volti sintetici se paragonate a immagini di volti realiNon si è inteso misurare la capacità di distinguere il falso dal vero, bensì analizzare che cosa spinge a scegliere, a preferire visivamente un deepfake.

Col fine di osservare le reazioni ai deepfake, i ricercatori si sono avvalsi di una versione aggiornata della rete generativa avversaria (GAN) per generare 400 volti falsi, equamente suddivisi per genere ed etnia, dove 100 volti sono di uomini e donne di colore, 100 di uomini e donne di razza caucasica, 100 dell’Asia orientale e, infine, 100 dell’Asia meridionale. A ognuno di questi volti sono stati abbinati 400 volti reali, di persone esistenti nella realtà, estratti dal database utilizzato per allenare la GAN.

Fotografie dei volti reali (R) e dei volti generati dall’intelligenza artificiale (sintetici - S), utilizzati dai ricercatori nell’ambito dello studio in tema di deepfake e percezione del falso, equamente suddivisi per genere ed etnia.
Alcuni esempi di volti reali (R) e di volti generati dall’intelligenza artificiale (sintetici – S), utilizzati dai ricercatori nell’ambito dello studio in tema di deepfake e percezione del falso, equamente suddivisi per genere ed etnia (Fonte: Proceedings of the National Academy of Sciences – https://www.pnas.org/doi/10.1073/pnas.2120481119).

I partecipanti (315 in totale, reclutati dalla piattaforma di crowdsourcing di Amazon Mechanical Turk) sono stati sottoposti a tre differenti test. Nel dettaglio, nel primo, a 96 di loro è stato chiesto di classificare, uno alla volta, 128 degli 800 volti come reali (R) oppure come sintetici (S). Il risultato ha mostrato un’accuratezza media di classificazione pari al 48,2%.

Sia per i volti reali che per quelli sintetici, i ricercatori hanno esaminato il possibile impatto del genere e dell’etnia sull’accuratezza della classificazione, rilevando che per i volti reali c’era una significativa interazione della variabile “genere” riferita a ciascuna etnia, con un’accuratezza media maggiore per i volti maschili dell’Asia orientale rispetto ai volti femminili dell’Asia orientale e maggiore per i volti bianchi maschili rispetto ai volti bianchi femminili.

La stessa significativa interazione della variabile “genere” riferita a ciascuna etnia è stata riscontrata anche nella classificazione dei volti sintetici, con i volti bianchi maschili classificati in modo meno accurato rispetto ai volti bianchi femminili. Questo perché – ipotizzano gli autori – «i volti bianchi sono, in generale, più difficili da classificare in quanto sovrarappresentati nel set di dati di addestramento della rete generativa avversaria utilizzata in questo esperimento e, quindi, probabilmente percepiti dai partecipanti come immagini più realistiche, più vere».

Nel secondo test, a 219 nuovi partecipanti, è stato chiesto di eseguire lo stesso compito ma, questa volta, previa formazione e feedback, prova per prova. L’accuratezza media registrata è leggermente migliorata (fino al 59,0%, con percentuali sempre minori nel tempo, ossia per l’intera durata della prova) ma, per quanto riguarda gli impatti delle variabili genere ed etnia, sono stati replicati i risultati precedenti, con – sia per i volti sintetici maschili che femminili – i volti bianchi più difficili da classificare.

Per quanto concerne, nello specifico, la mancanza di miglioramenti nel tempo anche dopo la formazione e il feedback, il motivo – notano i ricercatori – risiede, presumibilmente, nel fatto che «alcuni volti sintetici non contengono artefatti immediatamente rilevabili a livello percettivo».

Infine, nell’ultimo esperimento in tema di deepfake e percezione del falso, a tutti i partecipanti è stato chiesto di esprimere un giudizio – dopo un’esposizione di qualche secondo dei 128 volti estratti dalla stessa serie – su un tratto come l’affidabilità che un viso ispira al primo sguardo, senza conoscere nulla della persona al quale appartiene. Tenuto conto di una scala di voti a 1 (molto inaffidabile) a 7 (molto affidabile), la valutazione media complessiva per i volti reali è stata di 4,48 inferiore alla valutazione dei volti sintetici (ritenuti del 7,7% più affidabili, piccola differenza ma statisticamente significativa). Vediamo perché.

Fotografie dei volti valutati come più affidabili (in alto) e meno affidabili (in basso) e il relativo punteggio su una scala da 1 (molto inaffidabile) a 7 (molto affidabile), nell’ambito dell’esperimento in tema di deepfake e percezione del falso.
Un esempio di volti valutati come più affidabili (in alto) e meno affidabili (in basso) e il relativo punteggio su una scala da 1 (molto inaffidabile) a 7 (molto affidabile). I volti sintetici (S) sono, in media, risultati più affidabili dei volti reali (R) – (Fonte: Proceedings of the National Academy of Sciences – https://www.pnas.org/doi/10.1073/pnas.2120481119).

Deepfake e percezione del falso: i volti sintetici percepiti come “più rassicuranti”

La prima considerazione da fare, guardando le immagini utilizzate durante i test in tema di deepfake e percezione del falso, è che i volti generati per mezzo dell’intelligenza artificiale sono praticamente indistinguibili dai volti reali. E per giunta, sono stati giudicati – a livello di percezione visiva – più affidabili rispetto ai secondi.

Il motivo – spiegano coloro i quali hanno condotto lo studio – risiede probabilmente nel fatto che, in questo caso, i deepfake (ovvero i volti falsi) possiedono, nell’insieme, caratteristiche più vicine alla “media normalità”, privi di eccessi e di tratti peculiari. E questa percezione di normalità li fa percepire come “rassicuranti”, come immagini che ispirano – in chi le guarda – sicurezza.

Le immagini reali appaiono, invece, meno omogenee. Proprio perché vere, rispondenti a persone che esistono nella realtà, presentano aspetti talora unici, personalissimi e, per questo, non replicabili, tra cui ad esempio, una cicatrice, un make up importante, un’espressione particolarmente ammiccante o un accessorio di troppo.

Tuttavia, è l’aspetto psicologico alla radice di questa percezione che preoccupa: il fidarsi di qualcosa che non esiste, semplicemente perché appare – “alla vista” – omologato alla realtà, conforme a modelli acquisiti. E che, se usato con intenzioni malevole, può arrecare danno, con implicazioni negative per i singoli soggetti e la società.

Il risultato di questa interessante ricerca deve poter inaugurare una riflessione ampia sui rischi legati alle tecnologie che generano i deepfake e, in particolare, alla loro eccessiva disponibilità in rete, per cui chiunque può liberamente avervi accesso e ottenere un codice per il suo utilizzo in qualsiasi applicazione.

L’incoraggiamento da parte degli autori della ricerca va verso la definizione di linee guida e di un codice etico che regolino la creazione e la distribuzione di tecnologie multimediali sintetiche. Non resta, dunque, che attendere gli sviluppi.

Default image
Paola Cozzi

Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione

Articles: 241

Newsletter Updates

Inserisci il tuo indirizzo email qui sotto per iscriverti alla nostra newsletter