Un recente studio del Massachusetts Institute of Technology apre a riflessioni sulle possibilità - per i robot - che derivano dal “capire il proprio ambiente”, in particolare in quegli ambiti in cui i loro compiti prevedono l’interazione continua con l’essere umano.

TAKEAWAY

  • Il progredire delle tecniche di intelligenza artificiale suggerisce nuove abilità percettive, adattive e interattive per i robot del futuro, tra cui il riuscire a cogliere le relazioni tra gli oggetti che popolano un determinato ambiente.
  • In risposta all’incapacità – da parte dei robot – di andare oltre il processo di semplice riconoscimento degli oggetti, è intervenuto uno studio a cura dei ricercatori del MIT, che propone un modello di comprensione delle relazioni tra i diversi elementi inseriti all’interno di un dato spazio.
  • L’acquisizione di un’abilità di questo tipo proietta le macchine verso una più ampia comprensione dell’ambiente in cui si trovano, mettendole in maggiore relazione con quanto percepiscono e arrivando, così, ad elevare le proprie prestazioni e a risolvere problemi in modo autonomo.

Grazie al progredire delle tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale, oggi i robot di terza generazione sono in grado di svolgere numerosi compiti che richiedono specifiche capacità. Ne sono un esempio le macchine utilizzate nei luoghi di lavoro, capaci non solo di riconoscere gli oggetti, ma anche di calcolare distanze, di muoversi in modo coordinato all’interno di gruppi di robot e di adattarsi alle variazioni delle condizioni operative. E le ricerche in corso suggeriscono ulteriori evoluzioni della robotica, nuove abilità percettive, adattive e interattive per i robot del futuro. Tra cui il riuscire a dedurre le relazioni tra gli oggetti che popolano un determinato ambiente.

La percezione visiva che ha l’essere umano della realtà in cui è immerso, gli consente di cogliere lo spazio, gli oggetti che lo occupano, le relazioni tra gli oggetti e lo spazio e la relazione tra gli oggetti stessi. La comprensione di quanto percepisce a livello visivo gli permette non solo di muoversi all’interno di tale realtà, ma anche di agire sullo spazio e sugli oggetti che essa contiene e di intervenire per modificarli.

Di fronte alla stessa scena, una macchina dotata di sistema di intelligenza artificiale si ferma al processo di visione dello spazio e dei singoli oggetti, slegati tra loro. È in grado di riconoscerli, ma è assente il processo che porta a capire le diverse relazioni tra tutti gli elementi che le rimanda il sistema di visione artificiale di cui è dotata. E se tale macchina è chiamata a obbedire a un comando, in base al quale – ad esempio – le viene chiesto di afferrare un determinato oggetto che si trova “accanto a un altro” all’interno di un dato spazio, per spostarlo in un altro spazio ancora, essa fallirà.

Se questo è un fatto grave, dipenderà dalle attività al quale il robot è destinato. In ambito industriale, ad esempio, i suoi compiti prevedono anche l’esecuzione di manipolazioni di una certa entità sui prodotti e, nei magazzini, tra le sue mansioni vi è anche l’impilare una serie di articoli.

In risposta a questa falla, a questa incapacità – da parte dei robot – di andare oltre il processo di mero riconoscimento della realtà, per capirne le complesse relazioni tra i diversi elementi che la compongono e poter interagire con essi, è intervenuto uno studio a cura dei ricercatori del MIT – Massachusetts Institute of Technology, che ha portato allo sviluppo di un modello di comprensione delle relazioni tra i diversi oggetti inseriti nella scena.

Nuove abilità per i robot del futuro: la scena viene scomposta e descritta grazie a un algoritmo di machine learning

In tema di nuove abilità per i robot del futuro, quello che i ricercatori del MIT hanno fatto è stato sviluppare un sistema di intelligenza artificiale che, avvalendosi di un algoritmo di machine learning, permette – a partire da un testo che descrive gli oggetti e le relazioni tra questi rispetto allo spazio che occupano (“la pentola che si trova alla destra del piano cottura”, “il piano cottura che si trova alla sinistra del lavello”, “il lavello che si trova sotto il mobile pensile) – di generare un’immagine il più possibile precisa di una data scena. Immagine che servirà alla macchina per avere chiaro l’ambiente in cui è inserita e in cui dovrà operare.

Il sistema – come si evince dagli esempi riportati tra parentesi – scompone il testo descrittivo in brevissime frasi e si focalizza su ognuna di esse, “fotografando”, in questo modo, ogni singola relazione di ogni singolo oggetto una alla volta, separatamente dal resto Solo successivamente, le frasi vengono ricombinate e si ha l’immagine completa della scena in questione

Se, diversamente, il sistema AI non scomponesse la descrizione testuale e procedesse cogliendo tutti gli oggetti contemporaneamente – spiega il team di studio – ci sarebbe il rischio, nel caso di descrizioni con più relazioni incrociate tra i diversi oggetti, di generare immagini non coerenti con la realtà e, dunque, di non restituirne al robot il quadro preciso. Inoltre, nel momento in cui le singole descrizioni separate vengono ricomposte, è possibile – data la flessibilità del sistema – considerare un numero maggiore di relazioni tra gli oggetti e adattare il sistema stesso a nuove combinazioni  [per approfondimenti sull’AI, consigliamo la lettura della nostra guida all’intelligenza artificiale che spiega cos’è, a cosa serve e quali sono gli esempi applicativi – ndr].

Capire il proprio ambiente: le prospettive che si aprono per cobot e care robot

Tali nuove abilità per i robot del futuro li proiettano verso una più ampia comprensione dell’ambiente in cui si trovano, mettendoli – in questo modo – in maggiore relazione con quanto percepiscono. Mediante l’applicazione di sempre più evolute tecniche di intelligenza artificiale, il fine ultimo è fare sì che i robot giungano a risolvere problemi e ad agire autonomamente verso un obiettivo specifico. Che è poi la sfida del futuro.

Pensiamo solo a quali nuove possibilità si aprirebbero per i robot collaborativi (detti anche cobot o co-robot), specificatamente sviluppati per collaborare e interagire fisicamente con l’essere umano e con l’ambiente circostante in uno spazio di lavoro definito.

In particolare, in ambito industriale – in cui, tra le tante operazioni, si occupano anche dell’assemblaggio dei pezzi di produzione e del monitoraggio dell’ambiente – grazie alla comprensione delle diverse relazioni tra i molteplici oggetti che popolano la scena, i cobot sarebbero in grado di rilevare con sempre più precisione i cambiamenti all’interno dell’area di lavoro, di gestirli in modo più efficiente e, conseguentemente, di agire, di compiere azioni in linea con essi, a vantaggio della qualità della produzione (e non solo della quantità).

Così come, all’interno dei magazzini, i cobot sarebbero capaci di rispondere in modo più puntuale agli input in merito alla movimentazione degli oggetti presenti, riuscendo non solo a distinguere tra quelli sugli scaffali e quelli sui carelli, ma anche a cogliere le relazioni tra loro rispetto allo spazio.

Nel caso, invece, dei robot deputati all’assistenza agli anziani, ai disabili o ai pazienti ricoverati in ospedale (i cosiddetti “care robot”, in affiancamento o in sostituzione dei caregiver umani), una comprensione più profonda dell’ambiente li porterebbe a migliorare l’interazione con le persone di cui si occupano, elevando il loro livello di prestazione in quelle attività che comprendono, ad esempio, la nutrizione, l’igiene personale e la riabilitazione degli assistiti. Nell’esecuzione di tali compiti – in cui sono centrali la vicinanza fisica al soggetto e il rapporto con questo – la deduzione, da parte del care robot, delle complesse relazioni tra gli oggetti della scena diventa cruciale nell’obbedire a precise richieste da parte delle persone fragili che assiste.

Nuove abilità per i robot del futuro: il prossimo step sarà comprendere le interazioni tra le persone e gli oggetti e le relazioni sociali

In tema di nuove abilità per i robot del futuro, suscita interesse il progetto internazionale a lungo termine Egocentric 4D Live Perception (Ego4D) di Facebook AI Research – FAIR, in cui, tra i diversi centri di ricerca nel mondo, è stato coinvolto anche il team del Dipartimento di Matematica e Informatica dell’Università di Catania.

Si tratta di un lavoro che si spinge oltre lo studio del Massachusetts Institute of Technology, prendendo in esame la percezione dell’ambiente fisico, degli oggetti, delle interazioni uomo-oggetto e delle interazioni tra le persone e definendo una serie di test per consentire, a ricercatori e sviluppatori di sistemi AI, di valutare tale percezione da parte delle macchine dotate di intelligenza artificiale. L’obiettivo principe di tali test e di tali valutazioni è «fare progredire le tecniche AI necessarie a costruire, in futuro, robot più utili nei luoghi di lavoro e negli ambienti domestici».

Cobot, in futuro, capaci di cogliere le relazioni tra il lavoratore e determinati oggetti da questo utilizzati all’interno dell’area di lavoro, potrebbe significare, ad esempio, prevedere (e prevenire) un eventuale suo infortunio.

La finalità di un robot dotato di tale abilità, dunque, non è quella di aumentare la produzione, ma di intervenire per risolvere problematiche – più o meno grandi – nei luoghi di lavoro, così come all’interno delle abitazioni, in cui capire come le persone cambiano lo stato degli oggetti nello spazio e come interagiscono tra loro potrebbe portare a migliorare le nostre vite.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin