Dall’automatizzazione dell’analisi video alla protezione della privacy

Come non essere identificati, né rintracciati, nelle immagini riprese dai più evoluti sistemi di videosorveglianza urbana? Uno studio condotto negli USA - dove l’impianto normativo in materia di protezione dei dati personali non è quello europeo - soffermandosi sul livello di maturità degli attuali strumenti di analisi video, invita tutti a una riflessione.

TAKEAWAY

  • Negli ultimi dieci anni, l’applicazione di tecniche di intelligenza artificiale via via sempre più evolute ai processi di analisi video ha contribuito all’automatizzazione di questi ultimi su intere reti di telecamere di videosorveglianza, ampliando il dibattito in tema di riservatezza dei dati personali di quanti – a loro insaputa – vengono intercettati dall’obiettivo all’interno di spazi pubblici.
  • Uno studio del Massachusetts Institute of Technology, in collaborazione con altri Atenei americani, adottando la tecnica della privacy differenziale basata sulla durata dell’evento videoregistrato, ha sviluppato un software che lavora su specifiche finestre temporali, proteggendo i dati video personali visibili per un determinato lasso di tempo.
  • La peculiarità stessa di questo software non lo rende accurato tanto quanto i sistemi di analisi che analizzano tutto il flusso video senza suddividerlo (utilizzati da Forze dell’Ordine e investigatori), ma – se impiegato nell’ambito della videosorveglianza di spazi pubblici – protegge la privacy dei passanti durante successive elaborazioni dei frame per scopi statistici e studi in molteplici campi.

Quello della videosorveglianza e della protezione dei dati personali non è certo un tema inedito. Esiste un ampio corpo di normative, in Italia e a livello europeo – tra cui il GDPR – che da tempo se ne occupa, ponendo limiti precisi all’installazione, nei luoghi pubblici, di telecamere dotate di algoritmi di intelligenza artificiale a bordo.

Allontanandoci per un momento dall’UE e guardando agli Stati Uniti, dove l’impianto normativo in materia è ancora piuttosto frammentato, uno studio del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT (Massachusetts Institute of Technology), in collaborazione con la Princeton University, l’University of Chicago e la Rutgers University, pone l’accento sull’impiego sempre più spinto delle tecniche AI – e, più in particolare, della computer vision – nell’analisi video, con la conseguente automatizzazione del processo su intere reti di telecamere e il rischio di invadere la privacy di coloro che vengono ripresi all’interno dello spazio videocontrollato.

Tale studio, sebbene il nostro Paese viva (per lo meno in linea teorica) uno scenario differente, all’ombra del Regolamento sulla privacy, ci porta, però, a fare una riflessione sulla tensione che da sempre esiste tra l’utilità, per applicazioni anticrimine e di pubblica sicurezza, delle soluzioni di videosorveglianza da un lato e il legittimo diritto alla riservatezza e alla protezione dei dati video personali dall’altro. E su come, oggi, le tecniche di analisi video più evolute, supportate dall’intelligenza artificiale, sfuggano, in alcuni casi, al controllo dell’essere umano.

Videosorveglianza e protezione dati personali: il rischio dell’identificazione senza consenso

Sono da considerarsi “dati personali” non solo le proprie generalità (nome, cognome, luogo e data di nascita) e tutte quelle informazioni che rimandano alla nostra identità (caratteristiche fisiche, relative alla professione, allo status socio-economico, al proprio stato di salute). Anche le immagini che ci ritraggono (o che ritraggono la targa della nostra auto o della nostra moto oppure il numero civico di casa) – fotografie e video – sono dati personali a tutti gli effetti e, se riprese e utilizzate a nostra insaputa, senza il nostro esplicito consenso, concorrono a determinare una violazione della nostra privacy.

Le telecamere di videosorveglianza urbana di ultima generazione, con risoluzione altissima e funzioni di analisi video a bordo grazie ad algoritmi di deep learning, installate – con finalità di pubblica sicurezza – nelle strade cittadine, nelle piazze e nei parcheggi, acquisiscono dati video personali dei passanti, oltre a seguirne i movimenti e i tragitti.

In tema di videosorveglianza e protezione dati personali, la domanda che gli autori dello studio si pongono (ricordando che il contesto è quello statunitense, con un registro di regole differenti rispetto a quello europee e, nello specifico, a quello italiano) è «chi, oltre alle Forze dell’Ordine, potrebbe avere accesso alle videoregistrazioni?» Gli analisti che operano nel mondo sanitario, ad esempio, potrebbero visionarle e analizzarle per stimare la percentuale di persone che indossano la mascherina e rispettano il distanziamento sociale. Mentre, gli analisti del settore trasporti potrebbero accedervi per monitorare la densità e il flusso di veicoli e pedoni in determinate aree della città.

In molte aree degli Stai Uniti, le Amministrazioni hanno vietato (a chi non appartiene alle Forze dell’Ordine) l’analisi delle immagini riprese dai sistemi di videosorveglianza urbana proprio in seguito all’impossibilità di abilitare il trattamento dei dati video dei cittadini ripresi inconsapevolmente dalle telecamere, garantendo, allo stesso tempo, la loro riservatezza.

Nuovo concetto di “privacy differenziale” per l’analisi video

Ih tema di videosorveglianza e protezione dei dati personali, dal punto di vista tecnico, le soluzioni per celare, nei video registrati, coloro che sono presenti all’interno della scena ripresa, prevedono il classico offuscamento dei dati sensibili (ad esempio, la sfocatura dei volti), mediante software a bordo delle stesse telecamere che, nei modelli più evoluti, lavorano in tempo reale.

Il team di studio, a tale riguardo, osserva che questa tecnica «richiede una specifica esplicita di tutte le informazioni private che potrebbero essere utilizzate per identificare un individuo – tra cui, ad esempio, un preciso particolare dello zaino che porta in spalla – e, quindi, la capacità di localizzare spazialmente tutte quelle informazioni in ogni fotogramma del video. Il che è un compito quasi impossibile, anche ricorrendo a sofisticati algoritmi AI».

Inoltre – aspetto rilevante – laddove l’identificazione si renda necessaria per scopi di pubblica sicurezza legati al riconoscimento di individui autori di reati, la sfocatura dei volti impedirebbe la funzione principe delle telecamere di videosorveglianza.

Per quanto concerne le tecniche di anonimizzazione che intervengono in fase di analisi e di pre-archiviazione, e gli stessi metodi basati sulla privacy differenziale – fanno notare i ricercatori – «si fondano tutti sul principio che, in questa sede, viene contestato, ossia identificare tutte le informazioni private nel video e, quindi, nasconderle».

Lo studio del Massachusetts Institute of Technology avanza, invece, una nuova nozione di privacy differenziale per l’analisi video, fondata sulla durata dell’evento e in grado di proteggere tutte le informazioni private visibili per un determinato lasso di tempo. Più nel dettaglio, propone un sistema che – anche in presenza di software di anali video che lavorano avvalendosi di reti neurali profonde – imporre la privacy basata sulla durata dell’evento.

Videosorveglianza e protezione dati personali: focus sulla “durata” del singolo evento

In tema di videosorveglianza e protezione dati personali, il software messo a punto dal team di ricercatori consente – a coloro che andranno ad analizzare i dati video raccolti dalle telecamere – «di inviare richieste (query) di dati e di aggiungere dati extra (“rumore”, in gergo tecnico) al risultato finale, per garantire che un individuo non possa essere identificato».

Fin qui sembrerebbe non esservi nulla di diverso rispetto al concetto classico di privacy differenziale. Quello che cambia è l’accesso alle informazioni, che diventa restrittivo: Privid (questo il nome del software), infatti, non lavora sull’intera durata del video, ma lo suddivide in piccoli blocchi (frame) dalla durata specifica ed esegue un’elaborazione dei dati su ognuno. Alla fine, i blocchi vengono aggregati e vengono aggiunti i dati extra.

Ad esempio, «il sistema potrebbe restituire il numero di persone osservate all’interno di ogni blocco video e l’aggregazione finale potrebbe essere la “somma”, ovvero il numero totale di persone che indossano la mascherina di protezione oppure la “media” per stimare la densità della folla».

Gli autori fanno l’esempio pratico dei dati raccolti tramite la videoregistrazione di una strada cittadina nell’arco delle 24 ore. Poniamo due analisti: sia il primo che il secondo inviano a Privid la richiesta, specificando di voler contare il numero di persone che passano ogni ora, quindi chiedono un’aggregazione della somma dei passanti.

Il primo analista potrebbe lavorare all’urbanistica e, quindi, potrebbe voler utilizzare le informazioni richieste – ad esempio – «per analizzare i modelli di calpestio e pianificare nuovi marciapiedi per la città. In questo caso, l’analisi video conta le persone e genera questo conteggio per ogni blocco».

Il secondo analista potrebbe, invece, volersi focalizzare su una singola persona o su uno specifico gruppo di persone, per studiarne i comportamenti. In questo secondo caso, l’analisi video poggerà su un determinato volto o su più volti e sul conteggio dei passaggi davanti alla telecamera.

Però, le richieste di entrambi sono assai simili, dunque, dal punto di vista di Privid, le due query sembrano identiche:

«Ma è qui che entra in gioco il rumore (dati extra). Il sistema esegue entrambe le query e aggiunge la stessa quantità di dati extra per ciascuna, celando così i dati video sensibili. Nel primo caso, poiché l’addetto all’urbanistica intende “contare” le persone e non individuarle, questo rumore avrà solo un piccolo impatto sul risultato finale e non influirà sull’utilità dei dati. Nel secondo caso, invece, poiché l’analista cerca segnali specifici, il rumore sarà sufficiente a impedirgli di sapere se “la” determinata persona o “le” determinate persone sono passate da quella strada a una certa ora»

In tema di videosorveglianza e protezione dei dati personali, ricordiamo che Privid lavora su piccoli blocchi di videoregistrazioni, a loro volta scanditi da una durata specifica. Non gli interessa conoscere l’ora esatta in cui si verifica l’evento, ma un limite superiore approssimativo che – nel caso dei due esempi citati – era di un’ora per volta.

La peculiarità del sistema ideato dai ricercatori del MIT sta nel poggiare – come accennato -su un nuovo concetto di privacy differenziale, con un focus particolare sulle query relative a specifiche finestre temporali. Questo si traduce in risultati finali non così accurati come nel caso di analisi dell’intero flusso video (dunque, Forze dell’Ordine e investigatori si avvarranno dei metodi classici), ma – se applicato nell’ambito della videosorveglianza di spazi pubblici – tale metodo ha il merito di contribuire a proteggere la privacy dei passanti durante l’elaborazione dei frame per scopi statistici e studi in molteplici campi, dall’urbanistica alla sanità.

Immagine predefinita
Paola Cozzi

Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione

Articoli: 290

Newsletter Updates

Inserisci il tuo indirizzo email qui sotto per iscriverti alla nostra newsletter