Computer vision per non vedenti: verso il bastone robotico con AI a bordo

Dalla Virginia Commonwealth University, un bastone per non vedenti con sistema AI a bordo e interfaccia "robotic roller tip", in grado di aiutarli a determinare la propria posizione nello spazio e a pianificare un percorso verso un obiettivo preciso.

TAKEAWAY

  • La tecnologia è di aiuto ai disabili visivi anche attraverso tecniche di computer vision applicate al classico bastone che accompagna i loro passi.
  • Ad oggi, esistono diverse tipologie di bastoni elettronici per non vedenti e ipovedenti. Quello che mancava, invece, è un bastone dotato di AI a bordo, in grado di determinare, per chi lo utilizza, la posizione nello spazio e a pianificare un percorso.
  • Ci hanno pensato i ricercatori della Virginia Commonwealth University con uno studio che ha condotto alla realizzazione di un bastone basato su algoritmi di visione artificiale e su un’interfaccia “robotic roller tip”.

La tecnologia è di aiuto ai disabili visivi. E lo è attraverso declinazioni diverse. Non in ultimo, attraverso le tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale e, più in particolare, per mezzo della computer vision per non vedenti e ipovedenti, applicata al classico bastone che accompagna i loro passi.

Ricordiamo che la computer vision – detta anche “visione artificiale” – è quel ramo dell’intelligenza artificiale dedito a riprodurre processi e funzioni propri dell’apparato visivo umano. Montati a bordo di macchine e dispositivi robotici, i sistemi di computer vision – sfruttando i sensori ottici delle telecamere – sono in grado di effettuare riconoscimenti, rilevazioni e classificazioni di persone e di oggetti nell’ambiente.

E, a proposito di bastoni per non vedenti e ipovedenti, ricordiamo che, ad oggi, ne esistono di diversi modelli di tipo elettronico: da quelli dotati di sensore che rileva gli ostacoli alla distanza di un metro – trasmettendo un segnale vibrante alle dita del soggetto – a quelli a forma di joystick verticale, controllabili da smartphone via bluetooth e integrati con l’assistente vocale Alexa e con Google Maps, al più recente bastone con sistema GPS incorporato che, in caso di emergenza o difficoltà, comunica la posizione del non vedente a familiari o amici.

Quello che, invece, mancava è un bastone dotato di sistema AI, capace di aiutare le persone non vedenti e ipovedenti a determinare la propria posizione nello spazio e a pianificare un percorso verso un obiettivo. Un bastone capace, insomma, non solo di guidarle, ma di dirigerne concretamente il passo nell’ambiente.

Ci hanno pensato i ricercatori della Virginia Commonwealth University, con uno studio in tema di computer vision per non vedenti che ha condotto alla realizzazione di un “bastone robotico” che sfrutta algoritmi di visione artificiale. Studio descritto approfonditamente in un articolo pubblicato sul numero di agosto 2021 della testata specializzata IEEE/CAA Journal of Automatica Sinica.

Vediamo nel dettaglio di che cosa si tratta e come il gruppo di lavoro è giunto a sviluppare una soluzione che supera alcuni limiti della “robot navigation” relativa ai movimenti dei dispositivi robotici protratti nel tempo e ai loro spostamenti negli spazi esterni.

La robot navigation applicata al bastone per non vedenti

Con l’espressione “robot navigation” – o “robot localization” – si intende la capacità del dispositivo robotico di stabilire la propria posizione e il proprio orientamento in uno spazio di riferimento e di riuscire a muoversi all’interno di questo in modo pianificato.

Tale abilità è importante al fine di evitare situazioni pericolose quali collisioni e condizioni non sicure, tra cui, ad esempio, quelle date dal contatto con temperature elevate, radiazioni e agenti atmosferici.

Più nello specifico, per navigare nel suo ambiente, il robot – o qualsiasi altro dispositivo mobile autonomo – necessita di una rappresentazione dello spazio, ovvero di una mappa dell’ambiente e di competenze atte a decifrarla. In particolare, la robot navigation basata sulla visione, allo scopo di estrarre gli elementi necessari alla mappatura dell’ambiente circostante, utilizza algoritmi di computer vision e sensori ottici.

In passato, la ricerca ha messo a punto metodiche di robot navigation basate su tecniche di localizzazione e di mappatura simultanee, che comportano l’utilizzo di telecamere (atte a calcolare la posizione esatta dei movimenti nello spazio e a rilevare gli ostacoli) e di mappe 3D delle coordinate generate, che restituiscono dati relativi alla profondità dello spazio.

Tuttavia, nel tempo, il sommarsi di eventuali inesattezze nella stima – in tempo reale – dell’esatta posizione del dispositivo robotico e delle sue coordinate spaziali, possono generare problemi di movimento.

E se questo non rappresenta un grosso ostacolo per spostamenti brevi nello spazio (pensiamo, ad esempio, ai robot collaborativi negli ambienti di lavoro, concepiti per interagire fisicamente con l’uomo in spazi delimitati), lo è, invece, per spostamenti con tempi più lunghi e in luoghi aperti, come nel caso del bastone dotato di computer vision per non vedenti.

In passato, per ovviare a tale limite, sono state avanzate una serie di soluzioni tecnologiche, che vanno dall’installazione, nell’ambiente, di beacon Bluetooth – dispositivi Bluetooth a basso consumo, in grado di trasmettere l’identificazione a dispositivi elettronici portatili vicini – o di chip di identificazione a radiofrequenza (RFID), fino alla definizione di mappe visive con funzione predittiva.

Ma, nel caso di un bastone per persone con disabilità visive, si tratta di interventi che richiedono molto tempo e – soprattutto per quanto riguarda il posizionamento di beacon Bluetooth o di chip nell’ambiente – di soluzioni poco pratiche.

Computer vision per non vedenti: immagini 3D a colori e dati di profondità per orientarsi nello spazio

In tema di computer vision per non vedenti, i ricercatori dell’Ateneo della Virginia, per superare i limiti descritti, hanno sviluppato una tecnica di visione artificiale che si avvale di una telecamera RGB-D, di un giroscopio – dispositivo rotante che tende a mantenere il suo asse di rotazione in una direzione fissa – e di un accelerometro. L’obiettivo, in fase di studio, era quello misurare come il bastone progettato si muove e ruota nello spazio.

Le telecamere RGB-D sono dispositivi video particolari, che coniugano i vantaggi propri dei sensori a distanza con quelli delle telecamere, fornendo immagini 3D a colori. Il risultato che ne deriva è un sistema di rilevamento di persone e oggetti che prende il nome di HOD – Histogram of Oriented Depths, focalizzato sulle peculiari caratteristiche di profondità dello spazio.

Più nel dettaglio, la telecamera in questione riprende e trasmette sia immagini a colori che dati di profondità per ciascun pixel dell’immagine. E il sistema di computer vision combina i dati di profondità relativi all’ambiente con il piano del pavimento o del suolo. Questi ultimi – fa notare il team di ricerca – devono essere sempre osservabili durante l’intero processo, in quanto punti di riferimento assoluti con cui confrontare tutti gli altri dati.

Computer vision per non vedenti: interfaccia “robotic roller tip” per il bastone robotico

In materia di computer vision per non vedenti, un altro aspetto preso in considerazione dai ricercatori nello sviluppare lo speciale bastone ha riguardato l’efficacia dell’interfaccia uomo-macchina. I bastoni elettronici esistenti tendono a utilizzare un’interfaccia vocale che fornisce comandi di navigazione passo passo alla persona non vedente.

Ma, precisa Cang Ye – ingegnere specializzato in computer vision e professore presso il Dipartimento di Informatica della Virginia Commonwealth University – in una nota critica: “Le persone non vedenti e ipovedenti sono esseri umani che desiderano camminano a un ritmo naturale, non conducenti di auto in attesa al semaforo“.

Dunque, il team ha abbandonato completamente questo approccio e ha, invece, progettato un’interfaccia “robotic roller tip” all’estremità del bastone, che consiste in una punta rotante simile all’estremità di una penna a sfera, in una frizione elettromagnetica e in un motore. Inserendo la frizione, l’utente mette il bastone in modalità robotica. Una volta acceso, il motore ruota la punta del bastone per guidare la canna nella direzione desiderata calcolata dal sistema di computer vision a bordo. E un vibratore posto nella canna (e non una voce) – tramite un modello di vibrazione codificato – suggerisce all’utente la direzione desiderata.

Se la persona tenta di fare oscillare il dispositivo o di sollevarlo da terra, questo viene immediatamente percepito dai sensori di bordo e passa automaticamente alla modalità “semplice bastone”, restandovi fino a quando non torna a terra.

Lo speciale bastone per non vedenti, dotato di algoritmo Ai a bordo e di robotic roller tip, è, in questo momento, ancora in fase di test e di misurazione delle performance. I primi risultati incoraggianti ne sottolineano la valenza sotto il profilo dell’aiuto concreto che tale dispositivo è in grado di dare a chi è affetto da disabilità visiva, migliorandone la qualità della vita.

Tuttavia, il team è prudente nel dare, oggi, una valutazione conclusiva delle sue caratteristiche tecniche e, soprattutto, dell’interfaccia uomo-macchina, rimandando al termine della sperimentazione il giudizio finale.

Default image
Paola Cozzi
Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione
Articles: 151