Le potenzialità di utilizzo dei wearable device si amplia, grazie alle potenzialità offerte dall’intelligenza artificiale nel fornire strumenti sempre più intelligenti e in grado di dare informazioni utili, ma anche di prevedere le azioni e dare un aiuto sensibile all’uomo in vari ambiti, da quello industriale all’healthcare.

La nuova frontiera dei wearable devicesdispositivi indossabili – punta a sfruttare lintelligenza artificiale non solo per fornire informazioni utili al contesto presente, ma per anticipare le azioni, anzi meglio a “predirle” in modo da aiutare ancor più le persone.

È un comparto pionieristico che vede l’Italia tra i protagonisti in ambito internazionale e che apre a potenzialità incredibili e attira sempre più interesse: a conferma, Mordor Intelligence prevede un aumento di valore del mercato delle tecnologie indossabili da 27,91 miliardi di dollari nel 2019 a 74,03 miliardi entro il 2025.

Intelligenza artificiale, robotica, visione aumentata: i progetti dell’IPLAB 

Uno dei poli di eccellenza riconosciuto dalla comunità internazionale in merito è l’IPLAB – Image Processing Laboratory, del Dipartimento di Matematica e Informatica presso l’Università di Catania. Questo laboratorio è focalizzato su image processing, computer vision, machine learning e computer graphics.

Tra i coordinatori del laboratorio di ricerca il professor Giovanni Maria Farinella. Il docente di informatica è particolarmente attivo su progetti di ricerca focalizzati su First Person Vision o Egocentric Vision.

Si tratta di materie di studio e di sviluppo delle tecniche di computer vision e machine learning specializzate nell’acquisizione ed elaborazione delle immagini e video dal punto di vista dell’utente. Questo avviene generalmente con l’utilizzo di specifici dispositivi indossabili come Google Glass, Microsoft HoloLens e GoPro.

L’IPLAB è al lavoro su più fronti. In particolare sta lavorando su tre progetti che si occupano di healtcare, cultura e industria. Il primo è PHILHUMANS – Personal Health Interfaces Leveraging HUman-MAchine Natural interactionS e si prefigge di realizzare dispositivi indossabili e dispositivi mobili autonomi – agenti robotici – a supporto dell’umano in applicazioni assistive in contesto domestico.

In pratica, intende fornire un ausilio a persone anziane sole in casa, prestando loro aiuto per esempio, nel ricordare loro di utilizzare un determinato strumento (nei casi di progressiva perdita di memoria) o di spegnere una luce accesa o il gas. In qualità di agenti robotici intelligenti possono anche far loro compagnia, interagendo. Stiamo lavorando per permettere ai dispositivi indossabili e agli agenti robotici di cooperare sempre più con l’uomo oltre che arrivare ad anticipare le mosse dell’utente e supportarlo nelle azioni quotidiane

spiega il professor Farinella.

Lo stesso progetto si prefigge anche di formare una nuova generazione di giovani ricercatori in grado di creare nuove tecnologie di assistenza indossabili e robotiche.

schema a blocchi in cui tre omini disegnati indossano wearable device che li aiutano nella preparazione dei cibi in cucina
I dispositivi robotici, insieme ai wearable device, svolgono un ruolo prezioso nelle tecnologie assistive.

Il secondo progetto, VEDI – Vision Exploitation for Data Interpretation è stato finalizzato allo sviluppo di un sistema integrato di analisi comportamentale e visione aumentata per il miglioramento dell’offerta e della fruizione negli spazi museali e naturali. In pratica intende supportare i visitatori di un museo o di uno spazio a valenza culturale mediante dispositivi indossabili, fornendo loro strumenti di conoscenza e informazioni utili.

Gli stessi wearable device si rivelano altrettanto utili per chi si occupa di management dei siti culturali, per garantire loro soluzioni di analisi e di verifica per migliorare la gestione. Possono essere raccolte info sugli interessi delle persone, sulle preferenze raccolte all’interno degli ambienti, sull’itinerario scelto dai visitatori.

Selezionato dal Miur e da Invitalia tra gli interventi di maggior impatto per la valorizzazione dell’anno europeo del patrimonio culturale, è stato presentato l’anno scorso a Matera, quale capitale europea della cultura. L’evoluzione del progetto, conclusosi a fine 2018, è VALUE – Visual Analysis for Localization and Understanding of Environments che è stato avviato quest’anno e che si concluderà nel 2022.

Questo progetto vuole portare più in là le finalità della ricerca condotta con VEDI, creando esperienze di mixed reality per il visitatore che potrà ottenere informazioni ancora più dettagliate, ad esempio in base a quale parte del quadro è guardata dall’utente – spiega Farinella – Questo sarà possibile mediante la tracciatura dei movimenti della pupilla (gaze).

uomo con visore di realtà aumentata mentre osserva un'opera d'arte
I wearable device per la visione aumentata, grazie all’intelligenza artificiale, possono fornire informazioni mirate su opere d’arte e siti culturali.

Wearable device, AI e visione predittiva: il futuro passa da ENIGMA

La posizione della pupilla è un elemento che entra in gioco nel terzo progetto che vede combinata l’intelligenza artificiale ai dispositivi indossabili in ambito industriale.

Lo studio condotto dal team dell’IPLAB è focalizzato su particolari algoritmi di anticipazione di eventi mediante dispositivi indossabili in grado di acquisire dati visuali in prima persona e quindi anche il gaze. “L’obiettivo è creare algoritmi di Machine Learning, per la visione artificiale, in grado di prevedere quale sia il prossimo oggetto con cui l’utente interagirà e l’azione che compirà ancor prima che essa accada“, specifica il docente ed esperto di Computer Vision e AI. 

Questo terzo aspetto, fondamentale per il futuro, è un autentico salto in avanti rispetto a quanto già oggi permette di fare l’Artificial Intelligence, ovvero riconoscere l’oggetto quando già l’utente ne viene a contatto. Il filone di ricerca su cui lavora Farinella e i ricercatori dell’IPLAB è relativamente inesplorato e a che fare con la capacità predittiva che l’uomo ha sviluppato e che gli permette di anticipare, predire in qualche modo il passo successivo:

Pensiamo, per esempio, quando stiamo vedendo un film. Ognuno di noi, dopo un determinato tempo in cui assiste, comincia a immaginare ciò che accadrà più avanti. Questo accade perché abbiamo imparato, in maniera autonoma, che alcuni eventi si possono verificare a partire da altri che sono accaduti. In questo senso, l’umano ha la capacità di “predire” ciò che accadrà. La stessa capacità ci aiuta a svolgere determinate azioni, anche le più ripetitive come salire le scale, immaginando già quanto la gamba deve flettersi e allungarsi per appoggiare il piede all’esatta altezza. Questo risultato a livello tecnologico è l’oggetto su cui stiamo lavorando nel nostro laboratorio: l’elaborazione di algoritmi di computer vision e d’intelligenza artificiale che permettono a un dispositivo indossabile, dopo essere stato addestrato vedendo video, di immaginare l’azione immediatamente successiva che compirà un soggetto

Cogito (e anticipo) ergo sum: l’intelligenza artificiale per anticipare le mosse

Questo studio ha risvolti particolarmente importanti in vari ambiti, tra cui quello industriale su cui è centrato ENIGMA Egocentric Navigator for Industrial Guidance, Monitoring and Anticipation.

Lo scopo del progetto è portare l’AI nel mondo industriale per interagire con il lavoratore e supportarlo il lavoratore nell’ambiente. Ciò non significa che si vuole monitorare (o, meglio, spiare) ciò che fa: la privacy ha sempre la priorità. L’intenzione è di garantirgli una maggiore assistenza e supporto nella vita di tutti i giorni.

Oltre a ciò sarà possibili fornirgli informazioni utili, specie se il contesto in cui si trova è nuovo per lui. Si tratta di un progetto per molti aspetti pionieristico a livello internazionale: IPLAB è tra i primi in Europa a condurre questo tipo di studi, oltre al team attivo alla University of Bristol (lo stesso ateneo dove si sta sviluppando il progetto EMPower, per i muscoli robotici), guidato dalla professoressa Dima Damen, insieme alla quale – oltre che insieme all’Università di Toronto – è stato sviluppato il progetto EPIC Kitchens, in cui è stato creato il più grande dataset per lo studio di algoritmi di intelligenza artificiale nel constesto egocentric vision.

Si tratta di 100 ore di video con milioni di frame etichettati rilasciato pubblicamente alla comunità di ricerca. ENIGMA è un progetto avviato quest’anno e di durata triennale finanziato dal Ministero dello Sviluppo Economico nell’ambito del bando “Fabbrica Intelligente”, e conta su partner di impresa quali Xenia Progetti, specializzata in soluzioni innovative Ict, e Morpheos, esperta di progettazione e sviluppo precompetitivo avanzato per IoT e AI, oltre che sul team di ricerca del prof. Farinella presso l’Università di Catania.

Si tratta di una partnership che oltre a puntare sull’innovazione tecnologica, fa anche attenzione allo sviluppo di collaborazioni con realtà del territorio. Con Xenia, in particolare, Farinella è impegnato anche in un altro progetto (EVA – Egocentric Vision with Adaptation) che punta allo studio di algoritmi di domain adaptation, ovvero algoritmi in grado di apprendere da dati simulati di un oggetto ma capaci di agire anche nel contesto reale.

Scritto da:

Andrea Ballocchi

Giornalista Leggi articoli Guarda il profilo Linkedin