Il recente lavoro del Computer Science and Artificial Intelligence Laboratory del MIT ha dimostrato come i sensori di luminosità integrati negli schermi di smartphone, tablet e notebook siano potenzialmente in grado (senza l’intervento delle telecamere a bordo) di rilevare gesti e azioni che normalmente compiamo davanti al display.

I sensori a bordo dei più evoluti dispositivi mobile quali smartphonetablet e notebook sono, ormai, molteplici e sempre più funzionali alle performance dei device e all’esperienza dell’utente. Solo per citarne alcuni, ricordiamo i sensori di prossimità, i sensori tattili, i microfoni, l’accelerometro (consente alle immagini di adattarsi alle rotazioni dello schermo) e il giroscopio (rileva i movimenti, per captare l’inclinazione del dispositivo), integrati, in particolare, nei tablet e negli smartphone. Ma la lista è alquanto lunga.

Tutto questo, però, ha un rovescio della medaglia, in termini di ricadute negative sulla privacy e sulla riservatezza dei dati dell’utente, esposti al pericolo di visibilità dall’esterno.

A tale riguardo, ENISA – European Network and Information Security Agency, nel suo Smartphone Guidelines Tool, raccomanda agli sviluppatori di app per smartphone di «ridurre al minimo l’accesso ai dati da parte dei sensori», suggerendo, ad esempio, «… di non raccogliere automaticamente i dati di geolocalizzazione».

Sul tema, è interessante uno studio spagnolo del 2021 riportato su ScienceDirect, (“SmartCAMPP – Smartphone-based continuous authentication leveraging motion sensors with privacy preservation), il quale si focalizza sui sensori di movimento degli smartphone, osservando come il processo di autenticazione continua che sfrutta tali sensori ponga una serie di criticità sotto il profilo della privacy, in quanto «i dati provenienti dai sensori di movimento sono potenzialmente in grado di rilevare lo stato di salute degli utenti».

Tuttavia, l’esempio emblematico, il più citato, poiché correlato a un rischio assai alto per la sicurezza dei dati video se non si adottano puntuali strategie di protezione, è quello dei sensori di immagini, presenti su smartphone e tablet a corredo delle telecamere comunemente utilizzate per scattare foto, videoregistrare, fare selfie, videochiamate e videoconferenze e che, se non gestite da un attento controllo delle autorizzazioni, possono consentire, dall’esterno, di avere accesso illecito a una mole assai ampia di immagini private.


Lo studio del CSAIL mostra, per mezzo di una serie di simulazioni e grazie a un algoritmo sviluppato ad hoc, come i sensori di luce ambientale riescano a catturare la gestualità delle mani degli utenti (ad esempio, lo scrolling delle pagine Web) mentre utilizzano il proprio mobile device.
Al di là, però, del tocco delle dita sullo schermo del dispositivo e dei semplici gesti delle mani, il vero rischio per la privacy è la possibile esposizione, davanti al display, di dati personali sensibili – come quelli sanitari e bancari – che potrebbero essere captati dagli hacker.
In futuro, questo filone di ricerca proseguirà intervenendo sulle performance dell’algoritmo. L’obiettivo è poterlo applicare nella ricostruzione di altri dati video, rilevati da diverse tipologie di sensori presenti nei dispositivi mobile, allargando il campo di indagine e includendo anche device come le smart TV.

Dispositivi mobile e privacy: il ruolo ”nascosto” dei sensori di luce ambientale

A proposito di dispositivi mobile e privacy, c’è da considerare che per l’attivazione di gran parte dei sensori incorporati in smartphone, tablet e notebook non vengono richieste né autorizzazioni né privilegi. Proprio come accade con i sensori di luminosità (detti anche “sensori di luce ambientale”), la cui funzione è calibrare in modo automatico il livello di illuminazione degli schermi in base all’intensità della luce dell’ambiente esterno, con impatti positivi sul risparmio energetico e sul comfort dell’utente. In pratica – grazie a questi sensori – se ci troviamo al buio, la luce dello schermo del nostro dispositivo sarà massima e viceversa con, naturalmente, tutta una serie di gradazioni intermedie.

«I sensori di luce ambientale sono tradizionalmente considerati a basso rischio per la sicurezza dei dati degli utenti, poiché non sembrano permettere l’imaging dell’ambiente»: prende spunto da questa tesi – per poi rovesciarla – il lavoro di un team del Computer Science and Artificial Intelligence Laboratory (CSAIL), in seno alMassachusetts Institute of Technology (MIT), pubblicato su ScienceAdvances il 10 gennaio 2024, dal titolo “Imaging privacy threats from an ambient light sensor”.

In estrema sintesi, i ricercatori del MIT hanno dimostrato che i sensori di luminosità non sono affatto innocui, bensì responsabili di possibili violazioni della privacy. Vediamo in che modo sono giunti a tale conclusione.

Rilevazione passiva (e non autorizzata) di gesti e azioni degli utenti davanti allo schermo

Il gruppo di studio ha innanzitutto sottolineato come sviluppatori di app e produttori di dispositivi mobile siano fermi all’assunto secondo il quale i sensori di luce ambientale «non rilevino dati e informazioni private “significative” a possibili hacker e che, quindi, non sia necessario programmare le app per richiederne l’accesso». Insomma, il loro impatto sulla privacy sarebbe – secondo loro – quasi nullo.

Il team del Massachusetts Institute of Technology, invece, ha scoperto (dimostrandolo concretamente attraverso una serie di simulazioni) che i sensori di luminosità, in modo del tutto passivo e senza il supporto di telecamere, sono in grado di ritrarre immagini relative al tocco delle mani degli utenti sullo schermo del proprio tablet o smartphone, delineando, in questo modo, i loro gesti e le loro azioni davanti al display.

Le simulazioni in laboratorio sono state messe a punto grazie a un algoritmo matematico sviluppato dagli stessi autori, che ha permesso – a partire da pochi e sparsi elementi visibili sullo schermo del device – di “ricostruire” le immagini rilevate, «avvalendosi dei più flebili cambiamenti di intensità della luce in un singolo punto dei sensori».

Le immagini che i sensori di luminosità riescono a catturare – hanno appurato i ricercatori – sono, in realtà, semplici gesti delle mani e delle dita, tra cui, ad esempio, lo scrolling delle pagine Web e il modo in cui gli utenti toccano e tengono in mano il proprio dispositivo mentre leggono o guardano fotografie e video.

«Uno dei pericoli concreti – spiega, però il team – nasce da quelle app con accesso nativo allo schermo, inclusi lettori multimediali e browser Web, che potrebbero captare, senza autorizzazione, quei gesti e visualizzare lo scrolling delle pagine Web, carpendone i contenuti per fini di marketing».

Ma c’è un altro rischio ben più grave evidenziato dallo studio del MIT, che deriverebbe dall’esporre quello che accade e quello che è presente davanti ai display dei dispositivi mobile (non solo semplici gestualità, ma anche dati personali, tra cui quelli sanitari o bancari) a malintenzionati, pronti a elaborarli da un altro dispositivo.

I test realizzati

Nel dettaglio, il gruppo di ricerca ha effettuato tre dimostrazioni pratiche in laboratorio, servendosi di un tablet Android. Nella prima, il protagonista è un manichino seduto davanti allo schermo del tablet: l’obiettivo era dimostrare l’effettivo rilevamento del tocco di diverse tipologie di mani (quella del manichino – appunto – quella fatta di cartone e, infine, quella umana) da parte del display illuminato dal sensore.

Configurazione sperimentale in cui viene rilevato il contatto della mano di un manichino con il display (A); un ritaglio di cartone a forma di mano aperta tocca lo schermo, seguito da un dito di mano umana che indica il monitor (B); impronte pixelate dell’open hand e della pointing hand, che rivelavano le interazioni fisiche con lo schermo del dispositivo (C); immagini finali recuperate e assemblate dall'algoritmo sviluppato dal team (D). (Fonte: “Imaging privacy threats from an ambient light sensor” - Computer Science and Artificial Intelligence Laboratory del MIT -https://www.science.org/doi/10.1126/sciadv.adj3608).
Configurazione sperimentale in cui viene rilevato il contatto della mano di un manichino con il display (A); un ritaglio di cartone a forma di mano aperta tocca lo schermo, seguito da un dito di mano umana che indica il monitor (B); impronte pixelate dell’open hand e della pointing hand, che rivelavano le interazioni fisiche con lo schermo del dispositivo (C); immagini finali recuperate e assemblate dall’algoritmo sviluppato dal team (D). (Fonte: “Imaging privacy threats from an ambient light sensor” – Computer Science and Artificial Intelligence Laboratory del MIT -https://www.science.org/doi/10.1126/sciadv.adj3608).

La seconda dimostrazione è stata realizzata con le sole mani umane e ha evidenziato che il modo in cui gli utenti toccano, fanno scrolling e ruotano lo schermo del proprio smartphone o tablet è suscettibile di visione da parte di chi, illecitamente, si colleghi al device, «anche se solo alla velocità di un fotogramma ogni 3,3 minuti» precisa il team. Aggiungendo che, in realtà, «con un sensore di luminosità più potente, i malintenzionati potrebbero intercettare in tempo reale le interazioni degli utenti con i propri dispositivi».

Nel terzo e ultimo test, infine, i ricercatori si sono spinti oltre, dimostrando che gli utenti corrono pericoli anche quando utilizzano lo schermo del mobile device per guardare brevi clip o film. Ecco come descrivono l’esito della dimostrazione:

«Una mano umana si è librata davanti al sensore di illuminazione, mentre sul display scorrevano le scene del cartone animato Tom e Jerry e una lavagna bianca posta dietro all’utente rifletteva la luce sullo schermo del dispositivo. In questo caso, il sensore di illuminazione ha catturato i sottili cambiamenti di intensità di luce per ogni fotogramma video, traducendoli in immagini che ritraggono la gestualità delle mani dell’utente nel momento in cui questo guarda il video»

Glimpses of Futures

Si apre uno scenario assai vasto con l’intuizione dei ricercatori del Computer Science and Artificial Intelligence Laboratory in materia di dispositivi mobile e privacy.

Il team è riuscito a simulare lo sguardo dell’hacker che, da remoto, capta quello che accade davanti allo schermo di uno smartphone o di un tablet illuminato dai sensori a bordo e senza l’ausilio di telecamere.

È stata introdotta una nuova minaccia ai danni dei dati degli utenti dei mobile device. È questa la portata della ricerca USA.

Sul tema, gli studi futuri – fanno sapere gli autori – verteranno sull’implementazione dell’algoritmo matematico che ha reso possibile la risposta alla domanda di partenza (i sensori di illuminazione catturano brandelli di dati video dai dispaly?), affinché esso possa essere applicato anche nell’ambito di sperimentazioni e simulazioni che hanno come oggetto i pericoli provenienti da altre tipologie di sensori, ad esempio nel campo della smart TV.

Ma proviamo ora ad anticipare scenari futuri, analizzando – per mezzo della matrice STEPS  gli impatti che l’evoluzione della tecnologia e della metodologia impiegate dal gruppo di studio potrebbe avere dal punto di vista sociale, tecnologico, economico, politico e della sostenibilità.

S – SOCIAL: spesso, per ignoranza e sciatteria, non applichiamo le corrette misure di sicurezza per proteggere i dati personali custoditi all’interno dei nostri dispositivi mobile. In futuro, simulazioni sempre più precise dei rischi già noti e ancora sconosciuti ai danni della nostra privacy, ci consentirebbero di divenire utenti più competenti e consapevoli in fatto di security riferita a smartphone, tablet, notebook e smart TV.

T – TECHNOLOGICAL: potrebbero essere le reti neurali artificiali a supportare, in futuro, l’evoluzione dell’algoritmo matematico sviluppato per ricostruire le immagini rilevate sullo schermo dei mobile device dai sensori di illuminazione. Più in generale, le tecniche di intelligenza artificiale contribuirebbero a simulazioni più realistiche ed efficaci delle minacce alla riservatezza dei dati.

E – ECONOMIC: quando i dispositivi mobile sono strumenti aziendali e contengono informazioni inerenti ad attività professionali, l’impatto economico in seguito alla loro violazione è assai elevato, con implicazioni anche sul business dell’organizzazione. Ecco, allora, che, in futuro, la prassi di ricostruire la scena della “minaccia hacker” per analizzare nuovi rischi di accessi illeciti ai dati e dimostrarne le concrete possibilità, significa prevenire perdite sul piano economico.

P – POLITICAL: ad oggi, il Garante per la protezione dei dati personali è sempre stato particolarmente attento nel dare suggerimenti su come “tutelarsi” dai sensori degli smartphone come i microfoni, «per evitare ascolti indiscreti». In futuro, dovrà prendere in considerazione i potenziali pericoli posti da “tutti” i tipi di sensori a bordo dei dispositivi mobile, stilando nuovi decaloghi rivolti agli utenti.

S – SUSTAINABILITY: sperimentare come i diversi sensori integrati nei device mobile messi a disposizione di dipendenti e collaboratori aziendali, hanno, ognuno, il proprio peso specifico nel definire il livello di protezione di tali dispositivi, si tradurrà, in futuro, in pratiche più sostenibili sotto il profilo della sicurezza, declinate nella garanzia di una formazione puntuale dei lavoratori sulla prevenzione delle minacce hacker, nonché sui corretti comportamenti da adottare.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin