Software di riconoscimento facciale pericolosi

I software di riconoscimento facciale rappresentano un serio pericolo per la società. Il loro utilizzo preventivo per evitare crimini è una applicazione potenzialmente valida, ma… quali sono i limiti?

Che ci piaccia o meno, il riconoscimento facciale avrà sempre più importanza nella nostra vita. È necessario comprendere che il concetto di riconoscimento facciale è legato ad altri temi: i bias cognitivi negli algoritmi, la legalità dei nostri dati, salvataggio di dati sensibili, il processamento delle immagini salvate, la sicurezza legata al video hacking, etc..

Sul tema si è scritto molto ma un’autorità nel campo è la docente di Harvard  Shoshana Zuboff. Il suo ultimo libro, “L’era del capitalismo della sorveglianza: la lotta per il futuro dell’umanità umano alle nuove frontiere del potere”, è una lettura d’obbligo sul tema.

I software di riconoscimento facciale, per come sono stati creati e utilizzati negli ultimi anni, rappresentano un serio pericolo per la società. Il loro utilizzo preventivo, per esempio, per evitare crimini, rappresenta una applicazione potenzialmente valida. Anche se utile, nel momento in cui queste tecnologie vengono mal programmate e gestite o, peggio ancora, abusate, divengono un danno per la popolazione e per gli stessi governi democratici.

Software di riconoscimento facciale, i rischi principali

Si parla spesso di diritti umani, privacy, gestione dei dati (biometrici e non). Tutti questi temi sono messi in pericolo dai software di riconoscimento facciale. Quando questi software vengono integrati sia digitalmente (altri software o algoritmi per la mappatura sociale) che fisicamente (effettori fisici quali telecamere, droni) lo scenario che si palesa è estremamente preoccupante. Vediamo i principali.

1. Controllo indiscriminato e automatizzato

Le normative vigenti nei paesi occidentali implicano che le agenzie governative (polizia, servizi segreti, etc..) possano utilizzare i filmati delle CCTV solo in caso vi siano specifiche clip (parti di filmato) che offrono delle evidenze utili per un’indagine.

Il riconoscimento facciale automatizzato, tuttavia, eleva ad un nuovo standard il concetto di controllo. Viene reso automatizzato e indiscriminante, tracciando i nostri percorsi fisici (personali o lavorativi) come mai prima. Una sorveglianza del genere, se consideriamo che i dati vengono salvati (per potenziali futuri utilizzi) implica che la nostra vita sia, di fatto, sempre spiata.

2. Mancanza e/o violazione di uno spazio legale regolamentato

La maggioranza delle nazioni che utilizzano questi software non hanno un’effettiva legislazione che ne normi l’utilizzo e ponga dei limiti. Di recente alcuni stati occidentali, come quello di Washington (non la città),  han cominciato a varare leggi o regolamenti, ma non esiste ancora un consenso condiviso, nemmeno nel semplice OECD. La stessa Unione Europea, con il GDPR (tra tutti gli stati occidentali, uno degli strumenti di protezione più avanzati), sta ancora cercando di comprendere effettivamente come gestire questa “patata bollente”.

3. Viola il principio di necessità e proporzionalità

Un principio riconosciuto dalle Nazioni Unite, quando si discute di diritto alla privacy. La sorveglianza dovrebbe essere ristretta alla persecuzione (e relativa raccolta di prove) di crimini gravi.

4. Viola la nostra privacy

Dal link dell’Onu del paragrafo precedente deriva anche il concetto di violazione della privacy, in luoghi pubblici. Specificamente la nostra libertà di dibattere, in ambito pubblico, temi considerati pur sempre personali. I software di riconoscimento facciale e analisi visiva, con i loro automatismi, di fatto annullano la possibilità di essere tutelati, in un qualunque luogo pubblico, anche in una semplice discussione al parco con un amico/amica (la lettura delle labbra è facilmente attuabile con software di riconoscimento facciale). L’esposto, fatto in merito a King Cross, via trafficata di Londra, rende l’idea.

Sistema di riconoscimento facciale
Software di riconoscimento facciale e analisi visiva

5. Effetto deterrente per eventi politici pubblici

La partecipazione ad eventi pubblici, negli stati democratici, è sintomo di salute del sistema democratico stesso. Nulla vieta oggi a chiunque di noi di manifestare le proprie posizioni politiche, sociali, economiche o religiose, in pubblico. Tuttavia, in futuro, il semplice attendere un evento politico (un candidato che fa un discorso, un sindacato che discute di diritti dei lavoratori), stante il sistema di riconoscimento facciale, diventerà una scelta indelebilmente scritta nel nostro dna civico-sociale.

6. Negazione del consenso dei cittadini

Ci sono scarse informazioni in merito a come i software di riconoscimento facciale salvino e utilizzino i dati. Questa ignoranza nega a qualunque cittadino la scelta di autorizzare, o meno, i dati e le immagini di sua appartenenza. Per quanto ogni cittadino sia libero di ignorare questo diritto inalienabile, la possibilità di poter autorizzare o meno l’utilizzo dei propri dati è fondamentale nelle moderne democrazie digitali.

7. Sono spesso inaccurate

Ne abbiamo già parlato: questa tecnologia è ancora primitiva. Gli algoritmi vengono “educati” con bias potenzialmente etnico-razziali che producono, evolvendo, numerosi errori nella mappatura degli individui. Questi errori si possono tradurre, per esempio, in arresti errati (l’algoritmo scambia un cittadino di colore per un altro).

8. Può scalare generando bias automatici

Immaginiamo un percorso di valutazione di un curriculum per una posizione lavorativa. Già oggi esistono software di analisi che scansionano un CV e fanno analisi comparativa sui social network. Ma in futuro, nel caso vi siano immagini erratamente associate a cittadini innocenti (legalmente o eticamente), una banca dati, pur se incorretta, potrebbe divenire la base per la preventiva esclusione di un candidato da una posizione lavorativa, pur se il candidato non ha mai compiuto nulla di eticamente o legalmente scorretto.

9. Liste di proscrizione governative segrete

Le liste di proscrizione sono una cosa del passato, quanto meno nei governi democratici occidentali. Eppure, i governi, pur se eletti da popolo, potrebbero avere interessi a generare liste di soggetti “di interesse”. Soggetti le cui posizioni politiche, religiose, economiche o sociali, potrebbero essere percepite come “potenzialmente” estremizzabili (e quindi richiedenti ulteriori attenzioni).

Si tratta ovviamente di uno scenario ipotetico. Tuttavia, negli ultimi anni abbiamo osservato una crescente polarizzazione del fenomeno politico e sociale (grazie anche alle piattaforme sociali), il che potrebbe indurre alcuni governi a creare liste di “persone di interesse” a titolo preventivo.  

10. Può essere usato per colpire gruppi già “socialmente fragili”

Di recente le agenzie di monitoraggio dei confini nazionali hanno ricevuto (si ricorda almeno un caso piuttosto famoso) software di discriminazione facciale. Gli eventi di Amazon (e il suo software) e ICE sono indicativi di come questi software possano danneggiare i migranti regolari. Se aggiungiamo software di riconoscimento facciale, utilizzabili su comuni cellulari, si comprende come il rischio di profilazione razziale sia a portata di mano per chiunque. Un tema, quello dei software di riconoscimento facciale, da cui non è esente l’Europa. Il SARI (Sistema Automatico Riconoscimento Facciale) sarebbe dovuto entrare in utilizzo in Europa già da qualche anno. Molti stati europei lo hanno bollato come illegale, e il nostro Ministero degli Interni ha dichiarato che non è in utilizzo.

Il futuro oggi: droni militari alla polizia

È uno scenario futuro plausibile? Forse. Tutte le tecnologie e le leggi disponibili al momento lo rendono attuabile con un numero ridotto di “adattamenti” del tessuto normativo democratico.

I droni, in dotazione alle forze di sicurezza che controllano i confini nazionali (Pcb, Fbi in usa) o le citta (polizia), non hanno effettori con soluzioni di deterrenza (letali o non letali) per contenere atti criminali.

I droni già oggi possono riconoscere e schedare profili e visi dei cittadini, con risultati più o meno discutibili.

Tuttavia, la crescente militarizzazione delle forze di polizia (americane in particolare) rischia di rappresentare un precedente pericoloso. Da ormai due decenni l’esercito americano “scarica” armamenti usati, tramite le fondazioni di polizia, alle forze dell’ordine civile. Di qui la proliferazione di unità di SWAT (commando tattici armati pesantemente con dotazioni militari leggere o pesanti).

Se lo stesso scenario si evolvesse per i droni di seconda mano, “decommissionati” dall’esercito, non è difficile prevedere, in un decennio droni armati usati dalle forze di sicurezza civili (come la polizia) che identificano e “contengono” i cittadini, su base automatica, grazie ai software di riconoscimento facciale, alla mappatura del viso e alla comparazione con database contenenti “persone di interesse”.

Già oggi accade ma, almeno, i droni non hanno Hellfire attaccati alle ali… per ora.

Default image
Enrico Verga
Analista ed editorialista | Nasce comasco e diviene milanese, si laurea in Scienze politiche internazionali alla Università Cattolica del Sacro Cuore. Segue la sua ispirazione business e diventa consulente strategico e istituzionale per aziende italiane che vogliono innovarsi e accrescere il proprio business. Pubblica le sue analisi e osservazioni anche su il Sole 24 ore, Fortune, Forbes, Agi, Fomiche, Linkiesta, Manager Italia, Longitude.
Articles: 10