Due nuovi algoritmi di intelligenza artificiale sviluppati dai ricercatori dell’Università Stanford potranno, un giorno, aiutare le persone con disabilità motorie a controllare intuitivamente i bracci robotici che le assistono nelle loro attività quotidiane.

Il rapporto tra l’ambito di studi che fa capo all’intelligenza artificiale da un lato e l’assistenza disabili mediante bracci robotici dall’altro, non è affatto nuovo.

Dispositivi robotici dotati di bracci, pensati e costruiti per aiutare le persone affette da disabilità motorie a svolgere autonomamente attività quotidiane come vestirsi, lavarsi i denti e mangiare, sono già realtà.

È del 2019, ad esempio, la messa a punto di ADA – acronimo di Assistive Dexterous Arm, braccio robotico sviluppato dai ricercatori della Washington University per aiutare i pazienti disabili a mangiare in autonomia, il cui software di controllo è un sistema di intelligenza artificiale allenato a riconoscere i diversi tipi di cibo nel piatto, a scegliere il tipo di posate più idonee e a imboccare il paziente.

Ma oggi, dopo un anno e mezzo, la ricerca punta a migliorare, ad affinare il controllo dei bracci robotici da parte dei pazienti nell’ambito di azioni sempre più complesse e dalla manualità sempre più precisa.

A tale proposito, il team di ricercatori dell’Università Stanford ha sviluppato un modo più intuitivo e più rapido di controllare il dispositivo robotico, al punto da permettere agli utenti di effettuare con fluidità azioni di precisione quali tagliare a cubetti il tofu, spalmare del formaggio su una fetta di pane e infilzare con la forchetta un marshmallow per poi immergerlo in granelli di cioccolata.

Intelligenza artificiale, assistenza disabili e bracci robotici: il lavoro dei ricercatori dell’Università di Standford

Il team guidato da Dorsa Sadigh – assistente di informatica e ingegneria elettronica presso l’Università di Stanford e membro di facoltà dello Stanford Institute for Human-Centered Artificial Intelligence (HAI) – ha sviluppato un controller che coniuga due nuovi algoritmi di intelligenza artificiale:

  • il primo – algoritmo dell’azione latente – consente il controllo tramite joystick senza la necessità di passare da una modalità a un’altra. Attraverso l’analisi dei dati relativi al contesto, è in grado di determinare se il paziente, ad esempio, si sta avvicinando con la carrozzina alla maniglia del frigorifero oppure al bicchiere posto sul tavolo, permettendo così al braccio robotico di seguirlo
  • il secondo – algoritmo dell’autonomia condivisa – interviene per consentire movimenti precisi attraverso il controllo condiviso tra il paziente e il robot

Vediamo come funzionano i due algoritmi.

Algoritmo dell’azione latente

I dispositivi di robotica assistiva oggi presenti sul mercato possiedono sei-sette articolazioni. Per riuscire a controllarle tutte, il paziente deve passare da una modalità all’altra sul joystick, il che non è un’operazione intuitiva. E, inoltre, richiede tempo e può rivelarsi stancante nell’arco della giornata.

Per semplificare il controllo da parte del paziente, la domanda che il team di ricerca si è posto è stata: può un joystick che dà comandi solo in due direzioni – su/giù, sinistra/destra – controllare un robot in modo fluido e rapido?

La risposta sta tutta in un processo denominato “riduzione della dimensionalità”. In che cosa consiste? Nel fatto che, per svolgere un dato compito, il braccio robotico non debba muovere ognuna delle sei o sette articolazioni in ogni direzione. Ma è sufficiente una serie più piccola di movimenti. Spiega Dorsa Sadigh:

L’intuizione chiave è che, a seconda della situazione specifica e del contesto – tra cui la direzione del movimento indicata dal paziente, il quale si muove su sedia a rotelle – il robot saprà che il comando a destra del joystick significherà una determinata azione come, ad esempio, afferrare una tazza

Entrando nel dettaglio, il robot apprende da un set di dati alimentato da una rete neurale artificiale, ovvero da “neuroni artificiali” (ispirati alle reti neurali proprie del cervello umano) basati su una tecnologia volta a “insegnare alla macchina a pensare in modo autonomo”.

Fanno parte del set di dati alimentato dalla rete neurale artificiale, tutte le istruzioni fornite dagli sviluppatori, a partire dalle quali il robot è in grado di ricreare le azioni più complesse per le quali è stato addestrato, ma senza cambio di modalità sul joystick.

Un esempio? Afferrare – in sequenza e più rapidamente di quanto accade con i bracci robotici attuali – un uovo, una mela e una tazza di farina, per poi deporli in una ciotola. Il tutto senza passare da una modalità all’altra sul joystick.

Intelligenza artificiale e assistenza disabili: per testare i due nuovi algoritmi di AI integrati tra loro, il team di ricercatori dell’Università di Standford ha di recente condotto una serie di esperimenti, in cui gli utenti controllano mediante joystick il braccio robotico nell’ambito di azioni di alta precisione come, ad esempio, tagliare a cubetti il tofu.

Algoritmo dell’autonomia condivisa con l’utente

Il team di ricercatori ha combinato l’algoritmo dell’azione latente con il secondo algoritmo sviluppato (autonomia condivisa), che – specifica Dorsa Sadigh – non è semplicemente un componente aggiuntivo: il sistema viene addestrato sulla base dell’integrazione tra i due algoritmi.

Nell’ottica di un’autonomia condivisa con l’utente, il robot si muove sulla base di una serie di “probabilità” che il controller (joystick) gli suggerisce. E acquisisce sicurezza in merito all’obiettivo man mano che gli vengono fornite istruzioni aggiuntive: ad esempio, di fronte a due bicchieri d’acqua posti sul tavolo, il robot inizia a muoversi nella convinzione che ci sia la “probabilità” di afferrare uno solo dei due bicchieri, ma non sa ancora quale.

Solo quando il joystick lo dirigerà verso uno dei bicchieri e lontano dall’altro, il robot avrà chiaro l’obiettivo e subentrerà nel movimento, condividendo l’autonomia con l’utente per controllare con più precisione il braccio del robot.

Per testare i due algoritmi integrati, i ricercatori hanno condotto una serie di esperimenti in cui gli utenti controllano il braccio robotico nell’ambito di compiti come, ad esempio, tagliare a cubetti il tofu. Col risultato che il controller che utilizza l’algoritmo combinato (azione latente e autonomia condivisa) è più rapido e più facile da gestire da parte degli utenti rispetto a quello basato sul solo algoritmo di azione latente e rispetto al controller standard da solo o con autonomia condivisa.

C’è ancora molto lavoro da fare – spiegano gli autori dello studio – prima che gli algoritmi sviluppati e integrati tra loro abbiano un impatto positvo sulla vita delle persone che vivono con una disabilità.

Il sistema, infatti, dovrà essere addestrato per utilizzare anche la visione artificiale e per funzionare in numerosi contesti. Alla fine, poi, dovrà esserci uno studio in cui un ampio campione di persone con disabilità abbia l’opportunità di testare il controller.

A lungo termine, la speranza è che la robotica assistiva basata sull’intelligenza artificiale possa migliorare la vita delle persone affette da disabilità motorie, rendendole più autonome nelle azioni quotidiane più semplici.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin