La costruzione, da parte dei robot, di “modelli di se stessi” è un requisito essenziale per una più precisa pianificazione e un più puntuale controllo dei loro movimenti all’interno dello spazio, nonché per rilevare e auto-compensare eventuali cambiamenti e guasti ai danni del loro corpo, migliorando così la resilienza della macchina.

TAKEAWAY

  • La Columbia University di New York ha definito un metodo basato sulle immagini video affinché i robot possano elaborare un modello di se stessi, divenendo, in questo modo, consapevoli del proprio corpo e dei suoi movimenti nello spazio.
  • Fondato su una rete neurale artificiale costituita da tre componenti correlati tra loro, tale metodo ha permesso a un braccio robotico circondato da telecamere in streaming di osservare se stesso durante l’esecuzione di movimenti in risposta a differenti comandi motori.
  • In futuro, il video self-modeling potrebbe essere applicato ad altre proprietà robotiche, tra cui il rilevamento e l’attuazione di determinati comportamenti. E poi si ipotizza che la capacità di auto-modellarsi completamente, possa aprire la strada alla prima forma di “autocoscienza delle macchine”.

I robot – sia umanoidi che antropomorfi – possiedono un “corpo”, una “parte fisica” mediante la quale riescono a controllare e a pianificare i propri movimenti, a occupare uno spazio e a interagire con l’ambiente e con altri corpi. Ma non solo. I robot – secondo uno studio reso pubblico da Science Robotics – sono in grado di “apprendere” il proprio corpo, di acquisire la propria immagine corporea attraverso l’elaborazione di un modello di se stessi ottenuta grazie a immagini video (video self-modeling).

«Proprio come accade agli esseri umani e agli animali, i robot possono utilizzare modelli di se stessi, ad esempio, per anticipare i risultati futuri di piani di movimento, senza provarli esplicitamente nel mondo fisico. E le previsioni ottenute possono essere utilizzate nei criteri decisionali delle azioni future. Un modello di sé coerente, una volta acquisito, può essere riutilizzato per molti compiti diversi e, quindi, servire per l’apprendimento permanente»

si legge nell’interessante articolo “Fully body visual self-modeling of robot morphologies”, in cui viene illustrato lo studio citato, a cura del Department of Computer Science, del Data Science Institute e del Department of Mechanical Engineering della Columbia University, a New York.

In particolare, per la pianificazione e il controllo delle attività, la maggior parte dei sistemi robotici disponibili – spiegano gli autori – si basa su “simulatori fisici”, i quali richiedono, però, un ampio sforzo per il loro sviluppo, la calibrazione e la manutenzione durante tutto l’arco di vita delle macchine. «Al contrario, il “video self-modeling” consente ai robot di apprendere la propria cinematica direttamente in situ, utilizzando dati di interazione indipendenti dalle attività».

Vediamo in che cosa consiste l’approccio del video self-modeling e in che modo esso risponde a domande sull’occupazione dello spazio e su possibili stati futuri dei robot [per approfondimenti, consigliamo la lettura della nostra guida alla robotica, che spiega come funziona e quali sono gli esempi applicativi – ndr].

Robot e immagine corporea: finalità del video self-modeling

«I robot – esattamente come tutti noi – operano all’interno di uno spazio tridimensionale. Essere – dai punti di vista morfologico e cinematico – consapevoli di tale spazio è essenziale per interagire con successo con gli ambienti fisici e adattarsi ai loro potenziali cambiamenti» osserva il team di studio in tema di robot e immagine corporea.

Obiettivo del team è dimostrare come i sistemi robotici giungano ad apprendere visivamente un auto-modello di se stessi, «in grado di catturare l’intera morfologia e cinematica del loro corpo, senza tuttavia una conoscenza preliminare delle sue configurazioni, come i posizionamenti delle articolazioni, la geometria delle parti, l’asse motorio e i tipi di articolazioni».

Per mezzo del video-self modeling, un robot dovrebbe essere in grado di pianificare le sue azioni future implementando l’auto-modello di se stesso prima di eseguire qualsiasi azione nel mondo fisico.

Tale modello – fanno notare i ricercatori – dovrebbe anche fornire una capacità di inferenza rapida per risolvere problemi comuni nella robotica.

«Inoltre, non tutti i componenti del corpo del robot hanno lo stesso peso nelle attività, quindi dovrebbe essere possibile interrogare diverse componenti spaziali del modello video di sé, se necessario. Ad esempio, la conoscenza 3D completa della base del robot e della geometria 3D di altri componenti del braccio non è richiesta quando si calcola la soluzione cinematica di un braccio robotico che tenta di raggiungere un oggetto 3D con il suo effetto finale».

Come funziona l’auto-modello video

In tema di robot e immagine corporea, il metodo basato sul video self-modeling messo a punto dal gruppo di studio della Columbia University si fonda su tre componenti della rete neurale MLP (Multilayer Perceptron, in italiano Percettrone Multistrato), una tipologia di rete neurale artificiale in grado – secondo la definizione che ne dà Wikipedia – di «mappare insiemi di dati in ingresso in un insieme di dati in uscita appropriati»

Nel dettaglio, le tre componenti della rete MLP riguardano una rete di coordinateuna rete cinematica (relativa, cioè, ai movimenti dei robot nello spazio) una rete che coniuga le caratteristiche delle coordinate con quelle cinematiche.

In particolare, la componente delle coordinate occupa un singolo strato di MLP, mentre la rete cinematica ha quattro strati. «Le caratteristiche di output che provengono da queste due reti sono concatenate e vengono inviate lungo altri quattro livelli della rete neurale MLP per produrre il valore finale».

I ricercatori, dunque, hanno posizionato un braccio robotico al centro di uno spazio circolare costituito da cinque telecamere in streaming. Lo stesso robot – dotato, a bordo, della rete neurale appena descritta, nonché di un sistema di visione artificiale – in questo spazio circolare osservava se stesso attraverso le telecamere attorno a lui, rivedendosi mentre compiva una serie di movimenti in risposta a differenti comandi motori. Vediamo di che tipo.

Robot e immagine corporea: la pianificazione di movimenti autoconsapevoli

In tema di robot e acquisizione della consapevolezza circa la loro immagine corporea, i comandi motori inviati alla macchina mentre questa osservava se stessa nelle immagini trasmesse dalle cinque telecamere, miravano – specifica il team – a mettere in campo un’attività di pianificazione del movimento tridimensionale autoconsapevole attraverso tre diversi compiti, «utilizzati come esempi a scopo dimostrativo»:

  • toccare una sfera di 4 cm di diametro con qualsiasi parte del corpo del braccio robotico
  • toccare la stessa sfera ma con effetto finale, dato dall’afferrarla o comunque trattenerla per alcuni secondi
  • toccare la stessa sfera con effetto finale evitando un ostacolo (un cubo rosso)

I primi due compiti rientrano tra «i problemi di ottimizzazione vincolata, risolti dal robot sfruttando la differenziabilità del modello visivo si se stesso e la sua capacità di rispondere a domande parziali su coordinate spaziali».

Più nello specifico, per risolvere il secondo compito, la macchina ha avuto bisogno di ulteriori informazioni sulla posizione dell’effetto finale rispetto al proprio corpo nella sua interezza.

Nel terzo compito, invece, alla macchina è stato chiesto di andare oltre il calcolo di uno stato finale di destinazione. E, per riuscire in questa operazione, ha dovuto eseguire una pianificazione precisa del movimento in 3D, toccando il bersaglio finale ed evitando, al contempo, un grande ostacolo rappresentato da un blocco rosso.

«Nel complesso, il robot ha il compito di proporre un’intera traiettoria, da dal suo stato iniziale allo stato di destinazione. Durante l’esecuzione della traiettoria proposta, egli fallirà se una qualsiasi parte del suo corpo entra in collisione con l’ostacolo».

Immagine che sintetizza l’attività di pianificazione del movimento autoconsapevole del robot attraverso tre diversi compiti, svolti alla presenza di cinque telecamere in streaming poste in cerchio intorno alla macchina: “tocca la sfera con qualsiasi parte del corpo”; “tocca la sfera con effetto finale”; “tocca la sfera con un effetto finale evitando gli ostacoli” (vedi cubo rosso). (Fonte: “Fully body visual self-modeling of robot morphologies”, Columbia University (New York) - https://www.science.org/doi/10.1126/scirobotics.abn1944).
Sintesi dell’attività di pianificazione del movimento autoconsapevole del robot attraverso tre diversi compiti, svolti alla presenza di cinque telecamere in streaming poste in cerchio intorno alla macchina: “tocca la sfera con qualsiasi parte del corpo”; “tocca la sfera con effetto finale”; “tocca la sfera con un effetto finale evitando gli ostacoli” (vedi cubo rosso). (Fonte: “Fully body visual self-modeling of robot morphologies”, Columbia University (New York) – https://www.science.org/doi/10.1126/scirobotics.abn1944).

Individuazione e recupero dei guasti, tra i vantaggi del self-modeling

Una delle principali conquiste in materia di robot e acquisizione della consapevolezza circa la loro immagine corporea, è data dalla capacità – da parte della macchina – di ispezionarsi e di riconoscere eventuali cambiamenti nel proprio corpo. E, utilizzando il modello di sé appreso mediante le immagini video, di adattarsi rapidamente a tali modifiche.

«Il nostro approccio prevede tre fasi: il robot rileva dapprima un danno o un cambiamento sul proprio corpo rispetto alla sua geometria originale intatta. Quindi, identifica il tipo di danno (ad esempio, un guasto al motore articolare) o di cambiamento che si sta verificando. Infine, raccoglie nuove informazioni su se stesso per mezzo di dati e di risorse computazionali, al fine di adattare rapidamente il proprio modello personale ai nuovi cambiamenti»

illustrano i ricercatori. Rispetto ai modelli correnti, i robot in grado di eseguire l’autodiagnosi servendosi del self-modeling non solo rilevano il problema, ma sanno anche dargli un nome e sanno auto-compensarsi.

Tale abilità delle macchine di auto-modellarsi senza l’urgenza di un’assistenza immediata da parte dei tecnici, è fondamentale sotto il profilo di una loro più ampia autonomia e di una loro maggiore resilienza. Pensiamo, ad esempio, ai robot all’interno delle fabbriche e a quanto possa essere strategica, in termini economia del lavoro, la loro presenza in qualità di sistemi autosufficienti anche dal punto di vista dell’analisi di se stessi e dell’auto-recupero.

Il futuro della ricerca in tema di robot e immagine corporea

In tema di robot e acquisizione della consapevolezza circa la loro immagine corporea, lo studio descritto propone una possibile metodologia di apprendimento, da parte dei robot, del proprio modello visivo, il quale restituisce l’immagine di una macchina consapevole dei propri movimenti nello spazio, «efficiente in termini di memoria, differenziabile e cinematica per quanto riguarda la pianificazione e il controllo dei movimenti rapidi», con la possibilità – aggiungono i ricercatori – di scalare tale metodo per adattarlo ad altre piattaforme robotiche e ad applicazioni di locomozione e di interazione oggettuale.

«Sebbene quanto illustrato nel nostro studio riguardi solo l’auto-modellazione geometrica e cinematica dei robot, ipotizziamo un’implementazione futura dei nostri risultati per giungere da auto-modellare ulteriori caratteristiche delle macchine, tra cui, solo per citare alcuni esempi, le proprietà dinamiche e il rilevamento e l’attuazione di determinati comportamenti».

Il pensiero conclusivo da parte del team ci lascia con un grosso punto di domanda, ipotizzando, in futuro, che la capacità dei robot di auto-modellarsi completamente – includendo sia la parte morfologica che il controllo di se stessi – «possa metterli sulla strada di quella che potrebbe essere interpretata come una prima forma di autocoscienza delle macchine».

Tematica – questa – che suscita immediatamente una serie di considerazioni di carattere etico e di riflessioni in merito al rapporto che si creerebbe tra un robot di questo tipo l’essere umano.

Scritto da:

Paola Cozzi

Caporedattrice Leggi articoli Guarda il profilo Linkedin