Riconoscimento facciale: come funziona, quali sono i rischi per la privacy e le norme di riferimento

I sistemi di riconoscimento facciale e, più generale, tutti i sistemi in grado di rilevare dati biometrici, ricordano il Giano Bifronte della mitologia: straordinariamente affidabili e sicuri nelle funzioni di identificazione e autenticazione, poiché fondati su caratteristiche biofisiche uniche e irripetibili, pressoché impossibili da rubare e duplicare, eppure, se male utilizzati, lesivi della privacy e dei diritti fondamentali dell’essere umano. Da un estremo all’altro. Con, al centro, tutto un quadro normativo divenuto più aspro nell’ultimo anno – complici alcune maglie allentatesi in seguito all’emergenza pandemica – e fatto di regolamenti, linee guida e sbarramenti da parte del Garante Privacy italiano ed europeo, attenti, in prima analisi, alla “persona”. Ecco uno spaccato dello scenario attuale.

Riconoscimento facciale: cos’è e come funziona

Tecnologia in grado di abbinare un volto umano – ritratto in un’immagine digitale o in un fotogramma video – a un volto contenuto in un database: è questo il “cuore” del riconoscimento facciale (in inglese “face detection” o “facial recognition”).

La tecnologia in questione rimanda alla biometria (dal greco bìos= vita e métron= conteggio o misura), disciplina che studia e misura le caratteristiche biofisiche delle persone, ossia quegli attributi che le rendono uniche e che fanno sì che vengano riconosciute in modo univoco, come, ad esempio, il colore e la dimensione dell’iride, le caratteristiche della retina, le impronte digitali, le linee della mano, il DNA e – appunto – la fisionomia del volto.

Il funzionamento di un sistema di riconoscimento facciale si basa su due elementi: una parte hardware – la telecamera – che acquisisce il dato biometrico rappresentato dal volto e una parte software che, attraverso l’impiego di algoritmi di intelligenza artificiale, lo analizza e lo confronta con i dati video acquisiti in precedenza e archiviati nel database del sistema, con l’obiettivo di collegare le caratteristiche del volto a una precisa persona, di riconoscerla insomma.

Tra le tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale, è il deep learning (o “apprendimento profondo”) ad avere un ruolo centrale nei sistemi di riconoscimento facciale.

Nel dettaglio, si tratta di una tecnica di apprendimento in cui reti neurali artificiali vengono esposte a grandi quantità di dati, in modo che possano imparare a svolgere compiti predefiniti. Reti neurali artificiali organizzate in diversi “strati”, ognuno dei quali calcola i valori per quello successivo, in modo da elaborare l’informazione sempre più “in profondità”.

Terminato il ciclo di addestramento della rete neurale – fondamentale per garantire un’elevata percentuale di affidabilità – il sistema è pronto a svolgere i compiti e le funzioni per cui è stato messo a punto: rilevamento del volto (per segmentarlo dallo sfondo dell’immagine) e allineamento dell’immagine segmentata, in modo da tenere conto della posa del volto, delle dimensioni dell’immagine, dell’illuminazione e della scala dei grigi.

In particolare, lo scopo del processo di allineamento è consentire la puntuale localizzazione delle caratteristiche facciali quali occhi, naso e bocca. Il vettore delle caratteristiche del viso così stabilito viene, quindi, confrontato con il database dei volti.

La quantità e la qualità dei dati utilizzati per il training dell’algoritmo si riflettono sul livello di precisione finale dell’intero sistema. Anche se il rischio che questo restituisca un falso abbinamento tra immagine del viso acquisita dalla telecamera e immagine contenuta nel database, è cosa non infrequente. Così come il rischio che l’algoritmo sia viziato da dati che contengono essi stessi radici di pregiudizi (bias) e di discriminazioni.

Ecco perché è importante costruire un’etica dei dati da applicare allo sviluppo delle reti neurali, come raccomanda la Commissione Europea nel suo Libro Bianco sull’intelligenza artificiale del febbraio 2020.

facial recognition
Terminato il ciclo di addestramento della rete neurale, il sistema di riconoscimento facciale è pronto a svolgere i seguenti compiti: rilevamento del volto (per segmentarlo dallo sfondo dell’immagine) e allineamento dell’immagine segmentata, in modo da tenere conto della posa del viso, delle dimensioni dell’immagine, dell’illuminazione e della scala dei grigi.

Il quadro normativo

Dal momento che ad essere coinvolta è la sfera biofisica dell’individuo, ovvero le caratteristiche uniche, irripetibili, che ne marcano la corporeità, il trattamento dei dati biometrici – compresi i dati relativi alla fisionomia del volto – rappresenta una questione delicata e spinosa sotto il profilo della privacy.

Tenuto anche conto del fatto che, in merito all’applicazione delle tecnologie alla base del riconoscimento facciale, non sempre viene chiesto il consenso delle persone coinvolte (spesso ignare di trovarsi davanti all’obiettivo di telecamere con face detection a bordo) né la loro cooperazione.

Non si tratta solo di “essere ripresi” da dispositivi video. In gioco c’è tutto il discorso relativo ai dati raccolti (in questo caso i visi di centinaia, forse di migliaia di persone), che pone alcuni quesiti: a che cosa davvero serviranno questi dati? Da chi (e come) verranno gestiti?

GDPR e riconoscimento facciale

L’utilizzo dei sistemi di riconoscimento facciale – così come dei sistemi che rilevano colore e dimensione dell’iride, caratteristiche della retina, impronte digitali, linee della mano – è disciplinato dal GDPR – General Data Protection Regulation, Regolamento UE sul trattamento dei dati personali e privacy, pubblicato sulla Gazzetta Ufficiale Europea il 4 maggio 2016 e divenuto operativo a partire dal 25 maggio 2018.

In linea con quanto espresso nel Regolamento, nel nostro Paese, le telecamere con riconoscimento facciale possono essere installate solo all’interno di determinati contesti definiti “critici” sotto il profilo della sicurezza e solo dopo il parere preliminare del Garante della Privacy (valutazione di impatto sulla protezione dei dati o D.P.I.A.- Data Protection Impact Assessment, ai sensi dell’art. 35 del GDPR), al quale spetta l’esame di ogni singolo caso e l’ultima parola in merito. Senza il suo assenso, nessun sistema di riconoscimento facciale è lecito.

In particolare, l’art. 9, par. 1, del GDPR vieta – in linea generale – il trattamento dei dati biometrici, fatte salve alcune eccezioni, elencate nel par. 2 dello stesso articolo. Tra queste, l’utilizzo dei dati biometrici solo se necessario in ambito lavorativo o nell’ambito della sicurezza sociale e collettiva; se necessario per la protezione di un interesse vitale dell’interessato o di altra persona; se necessario in un procedimento giudiziario; se vengono rilevati particolari motivi di interesse pubblico o per motivi di sicurezza sanitaria, controllo e prevenzione di malattie trasmissibili e per la tutela di gravi minacce per la salute delle persone fisiche.

Tra i contesti “critici” ai quali si è accennato – all’interno dei quali le telecamere con riconoscimento facciale hanno il compito di potenziare il controllo accessi di tipo fisico, andando a sostituire con il dato biometrico l’uso di badge e di altre tecnologie – rientrano i reparti speciali degli ospedali, tra cui i laboratori contenenti materiale biologico; gli ambienti industriali in cui sono presenti materiali pericolosi per la salute umana; le aree strategiche degli aeroporti, come, ad esempio, la torre di controllo. Solo per citare gli esempi più emblematici.

Differenza tra funzioni di “identificazione” e “autenticazione”

Esiste una distinzione importante tra i concetti di “identificazione” e “autenticazione” correlati all’impiego di sistemi di riconoscimento facciale, dove il primo compara l’immagine del volto di una persona con le immagini presenti in un archivio, per verificare se quella determinata persona vi è presente (è questo il caso dell’attività della Polizia nella pubblica sicurezza, di cui tratteremo in seguito) e il secondo confronta due dati biometrici relativi al viso, che si presuppone appartengano alla stessa persona. L’obiettivo, in questo secondo caso, è verificare che i due profili corrispondano allo tesso soggetto, ad esempio ai varchi di quegli aeroporti in cui la scansione del volto dei passeggeri sostituisce il controllo dei documenti cartacei e in ambito informatico – anche se non è uno dei temi qui trattati – per applicazioni di controllo accessi a smartphone, PC, tablet e servizi bancari online.

Riguardo, in particolare, al riconoscimento facciale negli scali aeroportuali, la sua funzione, in questo momento, in Italia e nei Paesi UE – oltre che di controllo accessi alle aree strategiche, come si è accennato – è di controllo dei passaporti nelle aree sicurezza e imbarchi, procedura utile a sveltire le pratiche burocratiche e a ridurre code e tempi di attesa: il passeggero fa una scansione del proprio documento di identità, dal quale viene estratta l’immagine del volto, che viene confrontata con l’immagine del volto rilevata da una telecamera con face detection a bordo.

In fase di test – in Italia – presso gli aeroporti di Roma Fiumicino (il primo, qualche anno fa, ad avere installato un sistema in grado di incrociare scansione del passaporto e scansione del volto dei passeggeri), Roma Ciampino e lo scalo di Milano Linate, il riconoscimento facciale aeroportuale è stato sottoposto al parere (risultato favorevole) del Garante Privacy e vi aderiscono solo i passeggeri che lo desiderano e che ne danno libero consenso.

Inoltre – aspetto importante – non condivide i dati raccolti con i database della Polizia, né con altri database esterni. Anzi, i dati vengono cancellati quando il passeggero parte, a meno che non sia egli stesso a dare l’assenso a conservarlo per un periodo superiore, in virtù di suoi ripetuti e ravvicinati viaggi sulla stessa tratta.

Nel resto d’Europa, lo hanno adottato gli aeroporti di Spagna, Regno Unito, Russia, Irlanda, Finlandia, Olanda. E, nel mondo, gli aeroporti del Canada, seguiti da Hong Kong, Singapore e Qatar, sono quelli che stanno investendo maggiormente sulla tecnologia per il riconoscimento facciale dei passeggeri.

Un rapporto di ACI – Airports Council International World sottolinea che, a livello globale, gli aeroporti hanno accelerato gli investimenti in tecnologia per supportare la ripresa dalla pandemia: nel 2020 sono stati spesi il 5,46% dei ricavi in IT, equivalenti a circa 3,5 miliardi di dollari di spesa assoluta, e il 55% degli aeroporti coinvolti nell’indagine stima che i loro budget sarebbe aumentato nel corso del 2021.

Investimenti supportati anche dal fatto che, in un tempo in cui assembramenti, code e contatti fisici (diretti o indiretti) sono estremamente rischiosi, il riconoscimento facciale, essendo una tecnologia “senza contatto”, consente maggiore sicurezza.

Le Linee Guida del Comitato della Convenzione 108 del Consiglio d’Europa

Garantire che il riconoscimento facciale non leda i diritti fondamentali dell’essere umano: questo l’obiettivo principe delle Linee guida sul riconoscimento facciale adottate il 28 gennaio 2021 dal Comitato della Convenzione 108 del Consiglio d’Europa (tra i più importanti strumenti legali per la protezione delle persone rispetto al trattamento automatizzato dei dati personali), atte a fornire una serie di misure di riferimento che Governi e sviluppatori, produttori e fornitori di soluzioni e servizi in tema di riconoscimento facciale dovrebbero applicare per garantire che questi “non arrechino danno alla dignità umana, ai diritti umani e alle libertà fondamentali di qualsiasi persona, compreso il diritto alla protezione dei dati personali”.

Tra i numerosi punti toccati nel documento, l’importanza dell’affidabilità degli strumenti utilizzati. Affidabilità che dipende dall’efficacia dell’algoritmo sviluppato e da fattori quali – ad esempio – l’assenza di falsi positivi e di falsi negativi, elevate prestazioni anche in presenza di diverse fonti di illuminazione e anche quando i volti vengono allontanati dalla telecamera.

Affidabilità che va a braccetto con la sicurezza dei dati: “Qualsiasi mancanza che riguardi la sicurezza dei dati può avere conseguenze particolarmente gravi per gli interessati, poiché la divulgazione non autorizzata di tali dati sensibili non può essere corretta” spiega il Comitato. Non si può tornare indietro, insomma.

Dovrebbero, quindi, essere implementate forti misure di sicurezza – sia a livello tecnico che organizzativo – per proteggere i dati raccolti mediante i sistemi di riconoscimento facciale (cioè le immagini dei volti) contro la perdita e contro l’accesso e l’uso non autorizzato durante tutte le fasi del trattamento (raccolta, trasmissione e conservazione).

Anche la consapevolezza da parte degli interessati – e la comprensione da parte del pubblico in generale – delle tecnologie di riconoscimento facciale e del loro impatto sui diritti fondamentali deve essere attivamente sostenuta attraverso azioni accessibili ed educative, si legge nelle Linee guida.

L’idea è quella di dare accesso a concetti semplici, che potrebbero allertare gli interessati prima che decidano di utilizzare una tecnologia di riconoscimento facciale, per capire cosa davvero significa utilizzare dati sensibili come quelli biometrici, come funziona la tecnologia di face detection e per mettere in guardia dai potenziali pericoli, in particolare in caso di uso improprio.

Infine, il Comitato della Convenzione 108, oltre al rispetto degli obblighi di legge, sottolinea l’importanza di “dare un quadro etico all’uso di questa tecnologia”, formando comitati consultivi etici indipendenti – da consultare prima e durante le implementazioni – effettuando audit e rendendone pubblici gli esiti.

face detection
Il Garante Privacy, il 25 marzo 2021, ha espresso parere sfavorevole all’utilizzo del sistema di riconoscimento S.A.R.I. Real-Time, in quanto, per come è progettato, “realizzerebbe una forma di sorveglianza di massa”.

Riconoscimento facciale nella pubblica sicurezza

Torniamo alla funzione di “identificazione” dei sistemi di riconoscimento facciale, in cui viene comparata l’immagine del volto di un soggetto con le immagini raccolte in un database. Lo scopo è verificare se la foto di quella determinata persona è presente nell’archivio. Funzione, questa, che connota, in particolare, le attività di pubblica sicurezza a opera delle Forze dell’Ordine, alla ricerca di criminali coinvolti nelle indagini.

Italia: no del Garante Privacy all’utilizzo del sistema S.A.R.I. Real-Time

Nel nostro Paese, un esempio di utilizzo del riconoscimento facciale nella pubblica sicurezza è dato da S.A.R.I. (Sistema Automatico di Riconoscimento Immagini), introdotto nel 2017 dal Ministero dell’Interno – Dipartimento di pubblica sicurezza a supporto dell’attività delle Forze di Polizia e di Polizia giudiziaria, in grado di operare in due modalità: “Enterprise”, se l’indagine prevede la ricerca di un volto presente tra quelli all’interno di un database; “Real-Time” se la ricerca avviene in un’area geografica circoscritta ed è necessario confrontare in tempo reale una serie di immagini rispetto a una lista predefinita di sospettati.

In particolare, S.A.R.I. Real-Time, nell’appalto del 2017, era stato pensato come supporto a operazioni di controllo del territorio in occasione di eventi e manifestazioni pubbliche. Tuttavia, fino a qualche mese fa, mancava ancora il riscontro da parte del Garante. Giunto, poi, il 25 marzo 2021, con il provvedimento n. 127, esprimendo parere sfavorevole, in quanto – si legge nel documento – “Il sistema realizzerebbe, per come è progettato, una forma di sorveglianza indiscriminata, di massa”. Ma come funziona, nel dettaglio, S.A.R.I. Real-Time?

Il sistema consente, attraverso una serie di telecamere installate in una precisa area, di riprendere e di analizzare in tempo reale i volti di tutti i soggetti presenti, confrontandoli con una banca dati predefinita.

Nel momento in cui l’algoritmo di riconoscimento facciale riscontra una corrispondenza tra un volto presente nel database e un volto ripreso da una delle telecamere, il sistema genera un alert che richiama l’attenzione delle Forze di Polizia.

Ed è questo il punto: il sistema – spiega il Garante per la protezione dei dati personali – realizzerebbe un trattamento automatizzato su “larga scala”, che andrebbe a comprendere anche persone non oggetto di “attenzione” da parte della Polizia.

E anche se le immagini venissero immediatamente cancellate, l’identificazione di una persona sarebbe realizzata attraverso il trattamento dei dati biometrici di tutti coloro che sono presenti nello spazio monitorato, allo scopo di generare modelli confrontabili con quelli dei soggetti inclusi nel database.

Si determinerebbe, così – osserva il Garante – un’evoluzione della natura stessa dell’attività di sorveglianza, che segnerebbe il passaggio dalla sorveglianza mirata di alcuni individui alla possibilità di “sorveglianza allargata”, “universale”.

Secondo il Garante, invece, una base normativa adeguata deve tenere conto di tutti i diritti e di tutte le libertà coinvolte. E definire le situazioni in cui è possibile l’uso di tali sistemi, senza lasciare una discrezionalità ampia a chi lo utilizza.

Esempi dall’estero: il caso di Stati Uniti e Cina

Dall’Europa ci spostiamo negli Stati Uniti, dove, a gennaio 2021, è addirittura intervenuta Amnesty International con il lancio di una campagna globale, partita da New York, per vietare l’uso dei sistemi di riconoscimento facciale con funzioni di pubblica sicurezza a supporto delle Forze dell’Ordine, che – secondo l’Organizzazione in difesa dei diritti umani – “amplificherebbero i comportamenti razzisti della Polizia”.

La tecnologia in questione andrebbe a inasprire quello che viene denominato “razzismo sistemico”, con un forte impatto negativo sulle persone di colore, già sottoposte – negli Stati Uniti – a discriminazione e a violazione dei diritti umani da parte delle Forze di Polizia.

A seguito di un’identificazione errata, i “neri sono coloro che rischiano molto più facilmente”, spiega l’Organizzazione. In altre città USA – Boston, Portland e San Francisco, ad esempio – i sistemi di face detection ad uso della Polizia sono stati aboliti. Mentre, New York è dura a un’inversione di marcia: da anni, il suo dipartimento di Polizia continua a ricorrere al rilevamento biometrico per monitorare decine di migliaia di persone senza alcun consenso da parte loro, facendo rischiare ai cittadini di colore di essere arrestati per errore e di subire violenza da parte degli agenti.

Dove, invece, in tema di rispetto del diritto alla privacy, vige l’immobilismo più totale è la Cina, le cui città sono letteralmente attraversate da fitte reti di telecamere che sorvegliano la popolazione attraverso il riconoscimento facciale.

Secondo un’analisi di IHS Markit – società londinese che analizza dati per i principali mercati mondiali – nel 2018 il Paese aveva già 350 milioni di telecamere di sorveglianza installate, praticamente una ogni 4,1 cittadini. Ed entro la fine di questo 2021 il totale – si stima – raggiungerà i 560 milioni.

Ma il problema non è questo. Non è la quanità di telecamere, né la tecnologia alla base del riconoscimento facciale. Il nodo sta nell’uso che se ne fa, nell’assenza di un regolamento generale per la protezione dei dati, nell’assenza di una normativa che ponga dei limiti e che salvaguardi il diritto alla privacy dei cittadini e di una figura Garante che supervisioni. Tutto questo in Cina non esiste.

Utilizzato negli ambiti più disparati – per le strade, nelle stazioni ferroviarie, negli aeroporti, per effettuare pagamenti, prenotazioni e altro – il riconoscimento facciale è ritenuto, dalle autorità cinesi, uno strumento necessario a prevenire (e a reprimere) i fenomeni di micro e macro criminalità nel Paese. Una sorta di “arma di Stato” che, considerato l’attuale assetto socio-politico, è impensabile scardinare

riconoscimento facciale
In Cina il riconoscimento facciale è ovunque: qui siamo in una scuola media della città cinese di Hangzhou, dove il dispositivo è stato installato per facilitare gli studenti nel “pagamento senza contatto” del servizio mensa.

Riconoscimento facciale nei luoghi pubblici: la richiesta di divieto del Garante Privacy europeo

Quando, il 21 aprile 2021, la Commissione europea ha definito un pacchetto di proposte per trasformare l’Europa in una sorta di “hub globale”, in cui le tecnologie che fanno capo all’ambito di studi dell’intelligenza artificiale possano essere percepite come affidabili e sicure, riservando un posto centrale al riconoscimento facciale – in tempo reale – nei luoghi pubblici, la reazione (formalizzata il 21 giugno 2021) dell’EDPB (European Data Protection Board), Comitato europeo per la Protezione dei Dati, e dell’EDPS (European Data Protection Supervisor), Garante europeo della protezione dei dati, non si è fatta attendere.

E se, nell’intenzione della Commissione UE, vi è l’uso dell’identificazione biometrica solo se “strettamente necessario” e in casi eccezionali – tra cui, citando il pacchetto proposte, la prevenzione di minacce terroristiche imminenti, l’identificazione di un soggetto sospettato di aver compiuto un “reato grave” e la ricerca di persone scomparse – la richiesta del Garante è quella di un divieto totale di qualsiasi uso dell’AI per il riconoscimento automatico della fisionomia del volto negli spazi accessibili al pubblico.

Un divieto generale all’uso del riconoscimento facciale nelle aree accessibili al pubblico è il punto di partenza necessario se vogliamo preservare le nostre libertà e creare un quadro giuridico per l’intelligenza artificiale incentrato sull’uomo”, si legge nella dichiarazione dell’EDPB e dell’EDPS.

Tenendo conto dei rischi estremamente elevati posti dall’identificazione biometrica a distanza delle persone in spazi accessibili al pubblico, gli organismi UE per la protezione della privacy chiedono il divieto generale di qualsiasi uso dell’AI per il riconoscimento automatico delle caratteristiche umane, compresi anche l’andatura, le impronte digitali, il suono della voce e altri dati biometrici o comportamentali, in qualsiasi contesto.

Allo stesso modo, raccomandano di vietare i sistemi di intelligenza artificiale che utilizzano la biometria per classificare gli individui in gruppi in base a etnia, genere, orientamento politico o sessuale o per altri motivi per i quali la discriminazione è vietata, ai sensi dell’articolo 21 della Carta dei diritti fondamentali dell’Unione Europea.

Andrea Jelinek, presidente dell’EDPB, e Wojciech Wiewiórowski, Garante Privacy UE, hanno ribadito:

Legittimare l’identificazione biometrica in spazi accessibili al pubblico significa la fine dell’anonimato in quei luoghi. Applicazioni come il riconoscimento facciale in tempo reale interferiscono con i diritti e le libertà fondamentali in misura tale da mettere in discussione l’essenza stessa di tali diritti e libertà

E ricordano che le Autorità per la protezione dei dati applicano quanto disciplinato dal GDPR ai sistemi di intelligenza artificiale che coinvolgono dati personali, al fine di garantire la protezione dei diritti fondamentali e, più specificamente, il diritto alla riservatezza dei dati personali, compresi quelli biometrici.

Default image
Paola Cozzi
Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione
Articles: 151