Una ricerca dell’Istituto Italiano di Tecnologia - i cui risultati sono stati recentemente resi pubblici - valuta l’interazione tra esseri umani e il robot umanoide iCub alla luce delle teorie in base alle quali qualsiasi entità non umana (quindi anche una macchina) che si comporti come noi, viene percepita come guidata da intenzionalità, volontà e desideri.

TAKEAWAY

  • Il recente studio dell’IIT in tema di interazione uomo-robot poggia su tre esperimenti in cui, ricreando uno scenario ideale di interazione sociale tra i partecipanti e il robot umanoide iCub, è stato possibile vagliare l’attribuzione di intenzionalità da parte dei primi ai comportamenti del secondo.
  • Quello che è emerso dai risultati dei tre test è che lo scenario sociale e affettivo condiviso, insieme all’aspetto antropomorfo di iCub, ha portato i partecipanti ad aspettarsi dal robot una percezione del contesto assai simile alla propria.
  • A tendere, tale esito degli esperimenti potrebbe avere un impatto positivo sulla progettazione robotica di quei dispositivi deputati all’assistenza di anziani e disabili, in cui il contesto sociale e affettivo condiviso potrebbe contribuire a elevare, negli assistiti, il livello di collaborazione alle terapie e di adesione ai trattamenti da effettuare.

Come riflesso delle loro forme, delle loro caratteristiche esteriori e dei loro movimenti, esiste l’eventualità che i robot umanoidi presentino azioni e comportamenti interpretabili, da parte delle persone con le quali interagiscono, come assai simili ai comportamenti umani? E se sì, che impatto ha tale antropomorfismo sulla stessa interazione robot-essere umano?

Iniziamo col dire che, nell’interpretare il comportamento dei suoi simili, la tendenza dell’essere umano è quella di attribuirgli, in prima istanza, un’intenzione, una volontà, un desiderio, qualcosa – insomma – che lo muove. Perché lo stesso accade con i nostri comportamenti. Dunque, prevale il “come me”, l’impressione che l’agire degli altri sia, al pari del nostro, “intenzionale”.

«Il modo in cui impariamo a comprendere gli altri è attraverso l’apprendimento di noi stessi e, successivamente, attraverso la percezione degli altri “come me”. La comprensione delle somiglianze tra sé e l’altro è il fondamento della cognizione sociale»

si legge, in riferimento ad alcune teorie di psicologia, nel paper dal titolo  Belief in Sharing the Same Phenomenological Experience Increases the Likelihood of Adopting the Intentional Stance Toward a Humanoid Robot”, a cura del team del Social Cognition in Human-Robot Interaction Lab dell’Istituto Italiano di Tecnologia (IIT) e reso pubblico il 7 luglio 2022 dall’American Psychological Association.

Fare riferimento alle intenzioni, alle volontà e ai desideri per spiegare il comportamento altrui – osservano i ricercatori dell’IIT – «potrebbe non essere limitato ai soli esseri umani. In linea con il concetto del “come me”, l’evidenza ha mostrato che l’attribuzione dei nostri stati mentali (motivazioni, intenzioni, desideri) ad altri avviene anche rispetto a entità non umane, ma in qualche modo simili a noi, come i robot umanoidi».

Robot umanoidi e comportamenti umani: gli esperimenti con iCub utilizzando l’InStance Test (IST)

In tema di robot umanoidi e comportamenti umani, quello che il team dell’IIT ha illustrato nel documento citato, è una ricerca condotta attraverso tre esperimenti volti ad analizzare l’interazione tra il robot umanoide iCub (creato dallo stesso Istituto Italiano di Tecnologia, con un progetto avviato nel 2004, guidato da Giorgio Metta, oggi direttore scientifico dell’Istituto) e un gruppo di partecipanti (119, suddivisi in tre gruppi).

L’obiettivo, nel dettaglio, era valutare – servendosi dello strumento dell’InStance Test (IST) – quanto e in che modo, ricreando uno scenario di interazione sociale tra esseri umani e il robot umanoide, i primi fossero più inclini ad attribuire ai comportamenti del secondo l’intenzionalità dell’agire umano rispetto a una situazione di pura azione meccanicistica da parte del robot.

In particolare, l’InStance Test è un test – comprendente 34 scenari raffiguranti iCub., ciascuno dei quali contenente tre immagini – messo a punto dallo stesso gruppo di studio proprio per esaminare e dare una valutazione circa «la tendenza individuale delle persone ad attribuire intenzionalità a un robot umanoide».

Nel dettaglio, nel primo test, i partecipanti hanno sperimentato un contesto sociale di visione di un film insieme al robot iCub, in cui quest’ultimo mostra reazioni emotive simili a quelle umane agli eventi narrati nel video:

«Lo scopo era creare un legame sociale con iCub attraverso l’esperienza fenomenologica di condivisione di una situazione sociale familiare. Abbiamo ipotizzato che questa manipolazione potesse attivare il modello “umano”, portando all’adozione della posizione intenzionale nei confronti del robot umanoide»

precisano i ricercatori. Nel secondo esperimento, invece, sono stati replicati i risultati del primo, mantenendo inalterata l’interazione sociale con il robot, ma suddividendo in elementi pre e post-interazione l’applicazione dell’InStance Test.

Infine, nel terzo esperimento, il contesto sociale è rimasto identico ma privato dell’ispirazione al concetto “come me”, poiché i comportamenti di iCub – in questo caso – sono stati programmati per visualizzare movimenti molto ripetitivi, dando luogo a un comportamento meccanicistico, senza alcuna reazione emotiva a quanto visto nel filmato.

I risultati dei tre test

In tema di robot umanoidi e comportamenti umani, i risultati emersi – commenta il team – hanno rilevato che l’agire di iCub durante i primi due esperimenti ha portato i partecipanti a scegliere descrizioni più vicine al modello umano nel tratteggiarlo. E questo è stato osservato soprattutto dopo l’interazione tra le persone e il robot umanoide, rispetto alle descrizioni fornite prima dell’interazione.

«Possiamo ipotizzare che la breve esperienza di condivisione di un contesto sociale con il robot abbia portato i partecipanti a percepirlo “come loro”, aumentando la probabilità di adottare la posizione intenzionale nei suoi confronti», si legge nel paper a cura dell’IIT.

Al contrario, i comportamenti brevi, ripetitivi e simili a quelli di una macchina – mostrati da iCub nel terzo esperimento – non hanno influenzato il grado iniziale di adozione della posizione intenzionale nei confronti del robot, confermando che l’effetto osservato nel primo test era dovuto alla manipolazione sperimentale dei comportamenti e non alla semplice esposizione al robot umanoide.

«La condivisione di un contesto sociale con agenti (in questo caso un robot umanoide) i cui comportamenti sono percepiti come simili al concetto “come mi comporterei io” – fa notare il gruppo di ricerca – potrebbe attivare quella che alcuni psichiatri hanno definito “risonanza affettiva reciproca».

Ed è questa “sintonia reciproca” tra gli agenti calati all’interno di un’esperienza sociale condivisa che porta a sintonizzare i loro comportamenti affettivi.

Robot umanoidi e comportamenti umani: la centralità del contesto sociale e affettivo condiviso

In tema di robot umanoidi e comportamenti umani, è, dunque, possibile ipotizzare che il contesto sociale e affettivo condiviso che i partecipanti hanno sperimentato nei primi due test, li abbia portati «costruire l’aspettativa che il robot potesse essere un agente interattivo, in grado di percepire il contesto in modo simile a come lo stavano percependo loro stessi».

Ed è anche plausibile – rimarca il team – che tali processi socio-cognitivi siano stata supportati dall’aspetto antropomorfo di iCub e che, insieme, tutti questi fattori abbiano aumentato la tendenza ad attribuire comportamenti intenzionali al robot:

«Tuttavia, queste sono interpretazioni speculative dei risultati e gli esatti meccanismi alla base dei fenomeni osservati nel nostro studio dovranno essere esaminati nella ricerca futura. I nostri risultati sono, però, in linea con la letteratura recente sull’adozione della posizione intenzionale e dell’attribuzione mentale ai comportamenti dei robot»

L’ipotesi degli scienziati del Social Cognition in Human-Robot Interaction Lab dell’Istituto Italiano di Tecnologia si basa sull’idea che l’aspetto umanoide e le reazioni simili a quelle umane del robot iCub abbiano indotto nelle persone il “modello umano”, considerato in letteratura come un meccanismo predefinito:

«La letteratura recente sull’interazione uomo-robot sostiene che, di fronte a un agente non familiare e complesso (come un robot umanoide, appunto), l’antropomorfismo è un’impostazione predefinita, un modello intuitivo e ben noto, che aiuta a ridurre l’incertezza e lo sforzo cognitivo dedicato a spiegare il comportamento di tali agenti»

Impatti e prospettive future della ricerca

Posto che questo studio in tema di robot umanoidi e comportamenti umani – come affermano gli stessi autori – non approfondisce il ruolo della complessa correlazione tra la percezione dei partecipanti circa l’esperienza condivisa, le attribuzioni antropomorfe e le aspettative sui robot, nell’adottare la posizione intenzionale relativa ai comportamenti di iCub, l’aspetto, ora, saliente riguarda «la percezione che l’intelligenza artificiale sia capace di un pensiero indipendente quando crea l’impressione che possa comportarsi proprio come gli esseri umani».

Questo potrebbe, in futuro, avere un impatto positivo sulla progettazione robotica di dispositivi deputati – ad esempio – all’assistenza di anziani e disabili, dove l’esperienza e il contesto sociale e affettivo condivisi potrebbero contribuire a creare negli assistiti un livello più alto di collaborazione alle terapie e di adesione ai trattamenti da effettuare. In questo caso, l’attribuzione di intenzionalità ai comportamenti dei robot caregiver rappresenta uno strumento strategico ai fini del benessere della persona fragile.

Gli studi futuri – secondo il team di studio – dovrebbero replicare gli esiti ottenuti, ma con un numero maggiore di partecipanti dai background culturali ed educativi diversi, proprio per valutare la generalizzazione dei risultati.

«La ricerca futura, impiegando, ad esempio, metodologie di osservazione e di analisi come l’eye tracking e l’elettroencefalografia, potrebbe aiutare a svelare la complessità dei meccanismi cognitivi alla base delle nostre scoperte. Inoltre, è plausibile pensare che contesti differenti possano influenzare l’adozione della posizione intenzionale da parte delle persone» si legge.

Ad esempio, quando un robot umanoide è chiamato a svolgere compiti sociali come il tutoraggio in attività educative a contatto con i bambini, durante l’interazione potrebbero essere utilizzati modelli simili a quelli umani. Al contrario, quando i robot vengono usati come strumenti nell’ambito di un’attività in cui è prevista l’interazione fisica, è più probabile che gli utenti si avvalgano di modelli non umani di interpretazione dei comportamenti della macchina.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin