Presentata, in questi giorni, all’IEEE International Conference on Robotics and Automation (in scena fino al 5 giugno 2021 in Cina), Eva, testa robotica dal volto espressivo, in grado di leggere le espressioni facciali delle persone che le sono accanto e di rispondere di conseguenza.

TAKEAWAY

  • Nella robotica del futuro, interazioni uomo-macchina sempre più strette e articolate, soprattutto nelle fabbriche e nell’ambito di quelle professioni legate all’assistenza dell’altro, dove al robot non verrà chiesto di essere un semplice esecutore, ma di essere anche in grado di “interpretare” l’essere umano.
  • Ne sono un primo semplice esempio i robot collaborativi, pensati per collaborare e interagire fisicamente con l’uomo e l’ambiente circostante in uno spazio di lavoro definito.
  • Recente progetto in materia è Eva, testa robotica priva di corpo, il cui volto è stato progettato per esprimere le sei emozioni primarie dell’essere umano e le cui applicazioni, in futuro, potranno spaziare dagli ospedali alle scuole, alle case di cura e all’assistenza domestica ad anziani, malati e disabili.

La ricerca in tema di robotica ed espressioni facciali è, in questo momento, particolarmente fertile. Ciò che la guida è la convinzione che interazioni uomo-macchina più strette e articolate possano diventare, nel lungo periodo, sempre più centrali nei luoghi di lavoro, soprattutto nelle fabbriche e nell’ambito di quelle professioni legate all’assistenza sanitaria, all’assistenza di anziani e disabili, dove al robot non verrà chiesto di essere un semplice esecutore, ma di essere anche in grado di interpretare l’altro, il suo modo di parlare, il tono della voce, le sue espressioni facciali e di rispondervi in modo appropriato.

Ne sono un primo semplice esempio i robot collaborativi – detti cobot o co-robot, da “collaborative robot” – pensati per collaborare e interagire fisicamente con l’uomo e l’ambiente circostante in uno spazio di lavoro definito.

Ma la robotica del futuro ha in mente di più. Guarda – e attinge – in particolare, all’affective computing, segmento dell’intelligenza artificiale che, incrociando informatica, psicologia e scienze cognitive, studia lo sviluppo di sistemi e dispositivi capaci di riconoscere, interpretare, elaborare e simulare le emozioni umane e di adattarvi il loro comportamento.

Un primo rudimentale modello di robot ispirato all’affective computing risale agli anni ’90 quando, presso il Massachusetts Institute of Technology, fu creata Kismet, testa robotica che riconosce e simula le emozioni attraverso varie espressioni facciali, vocalizzazioni e movimenti.

È, invece, del 2015 il robot umanoide Sophia, realizzato da un’azienda con sede a Hong Kong, capace di rispondere a domande, ricordare conversazioni precedenti, apprendere da queste e di assumere ben sessantadue espressioni facciali.

In Italia, l’anno dopo, arriva Face – Facial Automation for Conveying Emotions, robot androide costruito nei laboratori del Centro Piaggio dell’Università di Pisa e protagonista di un film di Ridley Scott, la cui struttura del volto comprende ben trentadue micromotori che generano una grande quantità di espressioni facciali, dirigendo il proprio sguardo verso l’interlocutore e cercando di coglierne lo stato emotivo.

Veniamo ora ai giorni nostri, con un nuovo studio in materia dal titolo “Smile like you mean It: driving animatronic robotic face with learned models“, a cura del Creative Machines Lab della Columbia University di New York, i cui risultati vengono in questi stessi giorni presentati all’EEE International Conference on Robotics and Automation (ICRA),in scena fino al 5 giugno 2021 in Cina.

Robotica ed espressioni facciali: lo studio della Columbia University di New York

Hod Lipson, professore di Ingegneria Meccanica e direttore del Creative Machines Lab, nel descrivere il lavoro del team di ricerca da lui capitanato, racconta qual è stato, in particolare, lo spunto che fatto da file rouge, ricordando di un incontro, anni fa, in un negozio di alimentari, con un robot impiegato in mansioni di rifornimento scaffali che indossava comodi abiti da operaio, un simpatico berretto e un regolare badge recante il proprio nome:

Chi aveva progettato quel robot collaborativo lo aveva umanizzato, dandogli non solo un volto con degli occhi, ma anche un’identità, un nome e abiti consoni. Sembrava perfettamente calato nell’ambiente e interagire in modo normale con i “colleghi” umani. Da lì l’idea di andare oltre, creando un robot dal volto espressivo e reattivo, ma non destinato – come è accaduto in passato – al cinema e ai parchi di divertimento per bambini, bensì ai luoghi di lavoro, come aiuto agli esseri umani

ha spiegato. Aggiungendo che creare una “volto robotico” convincente è stata, però, una sfida assai impegnativa. Per decenni, infatti, le parti del corpo dei robot sono state realizzate in metallo o plastica dura, materiali troppo rigidi per muoversi e flettersi come, invece, fa il tessuto connettivo umano. L’hardware robotico è grezzo e difficile da lavorare: circuiti, sensori e motori sono pesanti, ad alta intensità energetica e ingombranti.

La prima fase del progetto in tema di robotica ed espressioni facciali è iniziata nel laboratorio del professor Lipson diversi anni fa con la costruzione del macchinario di base.

Eva – questo il nome dato al robot messo a punto – è stato concepito come una testa priva di corpo, molto somigliante ai componenti del Blue Man Group, gruppo musicale e di performance art newyorkese (chiamati Blue Men), i quali indossano maschere in lattice blu che ne nascondono i capelli e le orecchie.

Il suo volto è stato progettato per esprimere le sei emozioni primarie dell’uomo – dette anche “emozioni di base” – cosi come definite dallo psicologo statunitense Robert Plutchik (rabbia, disgusto, paura, gioia, tristezza e sorpresa), nonché una serie di emozioni più sfumate, utilizzando muscoli artificiali (cioè cavi e motori) che mettono in moto specifici punti della sua faccia, andando così a imitare i movimenti degli oltre 42 minuscoli muscoli del viso umano. Vediamo in che modo.

Eva, la testa robotica le cui espressioni facciali sono guidate da modelli di deep learning

L’intelligenza artificiale guida i movimenti e le espressioni del volto di Eva

Definita la parte meccanica, il team si è occupato della programmazione dei moduli di intelligenza artificiale alla guida dei movimenti del volto della testa robotica. Ed è proprio qui – puntualizza Lipson – la differenza rispetto ai robot cosiddetti “animatronici” (che utilizzano componenti elettronici per dare autonomia di movimento a pupazzi meccanici), in uso da anni nei parchi di divertimento e negli studi cinematografici: in questo progetto in tema di robotica ed espressioni facciali, sono state utilizzate tecniche di deep learning per far sì che il robot leggesse – e, quindi, rispecchiasse – le espressioni dei volti delle persone vicine.

Abilità, questa, che è stata appresa da Eva utilizzando il metodo “per tentativi ed errori”, rivedendosi attraverso registrazioni video. Più nel dettaglio, il cervello del robot – spiega il team – aveva bisogno di padroneggiare due capacità specifiche:

  • attivare il sistema di muscoli meccanici per generare una particolare espressione facciale
  • sapere quale precisa espressione assumere leggendola sui volti degli umani

Per insegnare al robot l’aspetto del proprio volto e come modificarlo, il gruppo di studio ha realizzato ore di filmati in cui Eva assume una serie di espressioni casuali. Esattamente come accade a un essere umano quando si rivede in una registrazione video, le reti neurali interne di Eva hanno imparato ad associare il singolo movimento muscolare a ciascuna ripresa video del proprio viso.

E nel momento in cui ha appreso come funziona il proprio volto (ovvero “l’immagine di sé”), è entrata in funzione una seconda rete neurale, col compito di insegnarle ad abbinare la propria immagine all’immagine del volto umano catturato dalla telecamera.

I ricercatori spiegano che, al momento, questa testa robotica senza corpo è un esperimento di laboratorio e che il suo imitare le sei emozioni primarie dell’uomo attraverso il volto è ancora molto lontano dalle complesse modalità in cui le persone normalmente comunicano per mezzo della propria faccia.

Tuttavia, le tecnologie alla base del progetto, dopo ulteriori studi e approfondimenti – osserva il professor Hod Lipson – potrebbero, in futuro, trovare applicazione nella messa a punto di robot in grado di rispondere a una sempre più ampia varietà di espressioni del linguaggio non verbale del corpo umano, risultando utili in molteplici luoghi di lavoro, tra cui, in particolare, ospedali, scuole, case di cura e nell’assistenza domestica ad anziani, malati e disabili.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin