Nel campo degli studi sull’interazione essere umano-robot, il focus si sta spostando sulle percezioni che il primo ha dei comportamenti antropomorfi ritenuti sleali da parte del secondo, in particolare di quelli manipolatori.
È esattamente da vent’anni che sentiamo parlare di “etica della robotica” o “roboetica”. Il primo simposio internazionale sul tema si è tenuto proprio in Italia (a Rimini) a gennaio del 2004, con l’obiettivo di aprire un dibattito tra progettisti e sviluppatori di robot da un lato e professionisti provenienti da settori come l’informatica, la psicologia, il diritto, la filosofia e la sociologia, dall’altro. Al centro, la definizione delle basi etiche che devono ispirare la progettazione, la costruzione e l’utilizzo dei robot.
La statunitense Robotics and Automation Society, in seno all’Institute of Electrical and Electronics Engineers(IEEE), definisce la robot ethics «un crescente sforzo di ricerca interdisciplinare collocato all’intersezione tra etica e robotica, teso a comprendere le implicazioni etiche e gli impatti, su essere umano e società, delle tecnologie robotiche», in particolare di quelle che abilitano le macchine a interagire con le persone, specie nell’ambito di applicazioni critiche quali assistenza ad anziani non autosufficienti, terapie riabilitative per persone con disabilità, missioni di ricerca e salvataggio, nonché di tutte quelle che vedono protagonisti i social robot.
Takeaway
Comportamenti antropomorfi dei robot, norme sociali e morale
Se c’è un aspetto poco indagato dell’attuale roboetica – fanno notare gli autori di uno studio illustrato in “Human perceptions of social robot deception behaviors: an exploratory analysis” (Frontiers in Robotics and AI, settembre 2024) – è quello relativo ai comportamenti dei social robot che imitano i comportamenti umani e che potrebbero essere utilizzati per manipolare gli utenti o per ingannarli.
Partiamo dal presupposto che, oggi, i robot sociali (umanoidi e semi-umanoidi), di cui Pepper è un esempio, vengono sempre più introdotti all’interno dei contesti di vita delle persone, rivestendo ruoli che un tempo erano esclusivi degli esseri umani, tra cui assistenti di educatori a scuola, assistenti di fisioterapisti nei centri di riabilitazione, aiuto-infermieri nelle corsie di ospedale, collaboratori domestici, camerieri nei ristoranti, commessi, operatori di servizi e persino compagni di squadra. Ebbene, in tali contesti, a contatto stretto con gli esseri umani, immersi – diversamente da quanto accade in una fabbrica – in un flusso continuo di pubblico, gli agenti robotici, per lavorare bene, devono conoscere e rispettare le norme sociali delle comunità in cui operano,ossia quell’insieme di «regole informali che, determinando ciò che è appropriato e ciò che è inappropriato, governano i comportamenti nei gruppi e nelle società» [fonte: Stanford Encyclopedia of Philosophy].
Nel 2015, uno degli autori dello studio citato, Bertram F. Malle – ricercatore al Brown University Department of Cognitive, Linguistic, and Psychological Sciences (Providence, Rhode Island) – in un lavoro dal titolo “Sacrifice One For the Good of Many? People Apply Different Moral Norms to Human and Robot Agents” (Ethics and Psychology), portava l’attenzione su come le persone comuni applicano le norme morali ai robot e su come esse esprimono giudizi morali sul loro comportamento. La ricerca, per la prima volta, sondava – confrontandoli – i giudizi morali espressi dalle persone, sia nei confronti dei comportamenti degli agenti umani che dei robot.
I due esperimenti condotti – illustra Bertram F. Malle – hanno rilevato che «ci si aspetta più fortemente che siano i robot, rispetto agli agenti umani, a intraprendere azioni basate su scelte utilitaristiche, che portano al sacrificio di una persona per il bene di molti. E sono stati proprio i robot a essere incolpati, più delle loro controparti umane, quando, durante i test, non compivano quel tipo di scelta». E questo perché, dalla macchina, ci si attende un ragionamento morale in base al quale “è bene e giusto ciò che è utile”, ciò che porta a un risultato misurabile, per il bene di un gruppo o di una comunità. Mentre, per gli esseri umani hanno un peso i valori alti, le considerazioni sulla moralità dell’atto in sé, sul senso etico di un gesto, indipendentemente dai suoi effetti pratici.
L’esempio “estremo”, maggiormente utilizzato per spiegare l’utilitarismo dell’azione, è quello che fa riferimento al medico che si trova nelle condizioni di dover salvare dalla morte cinque pazienti sacrificando una persona sana, utilizzando gli organi di questa per trapianti salvavita. Un robot, secondo la percezione che abbiamo delle sue norme sociali e morali, opterebbe per questo tipo di soluzione: sacrificare la vita di una persona sana.
Quando le norme sociali sono in conflitto tra loro
Tra le sfide maggiori per la messa punto di social robot competenti in materia di norme sociali, il fatto che queste, in taluni casi, entrano in conflitto tra loro, contraddicendosi. Dipende dalla situazione, dal contesto culturale e dalla dinamica relazionale in cui si è coinvolti.
Ad esempio, la risposta a una determinata domanda può essere del tutto educata e, allo stesso tempo, non veritiera, ingannevole. Al contrario, può essere arrogante ma onesta. «A volte, per essere onesti è necessario infrangere le aspettative di lealtà di un amico. E ci saranno inevitabili situazioni in cui il processo decisionale di un robot dovrà violare alcune delle norme sociali della comunità in cui opera». Questi gap, però, potrebbero essere percepiti come “comportamenti socialmente intelligenti” perché, ad esempio, correlati alla cultura e all’«ambiente linguistico in cui si verificano». È il caso di relazioni uomo-robot in cui sono posti a confronto parlanti di lingua inglese e parlanti cinesi, nell’ambito delle quali, «potrebbero verificarsi forme occasionali di disobbedienza culturalmente appropriate» [fonte: “Purposeful Failures as a Form of Culturally-Appropriate Intelligent Disobedience During Human-Robot Social Interaction” – Digital Library, 2022].
In altri casi, i social robot potrebbero trovarsi ad affrontare situazioni in cui sono chiamati a rispondere a comandi umani contrari alle norme sociali e, addirittura, lesivi nei riguardi di altri esseri umani. Possono dire “no”, disubbidendo agli ordini umani?
Secondo gli autori del lavoro descritto in “Why and How Robots Should Say ‘No’” (International Journal of Social Robotics, 2021), sì, potrebbero essere in grado di farlo, in futuro, grazie al supporto di sempre più sofisticati Large Language Models, per mezzo dei quali sviluppare robot capaci di un linguaggio naturale evoluto e moralmente competenti. «Riteniamo sia fondamentale per i robot essere in grado di rifiutare comandi contrari alle norme sociali e morali. Per farlo, però, essi dovrebbero potersi impegnare in dialoghi di rifiuto non rudimentali, ma sufficientemente articolati» sostiene il team di studio.
Robot e norme sociali: i comportamenti ingannevoli
Tornando al tema delle risposte non veritiere fornite dai robot in situazioni particolari – violando, così, alcune norme sociali del gruppo in cui sono inseriti – il caso dell’inganno merita un approfondimento.
Definito da uno dei maggiori esperti mondiali di analisi della menzogna, Aldert Vrij, professore di psicologia sociale presso l’Università di Portsmouth, come «tentativo deliberato di creare in un altro una convinzione che chi comunica considera falsa», il comportamento ingannevole «non deve necessariamente essere supportato dal linguaggio verbale, né avere successo, ma deve essere intenzionale e senza preavviso» [fonte: “Verbal and Nonverbal Communication of Deception” – Advances in Experimental Social Psychology].
In “White Lies on Silver Tongues: Why Robots Need to Deceive (and How)” (Oxford Academic), contenuto presente all’interno del libro “Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence”, viene evidenziata l’esigenza, da parte dei futuri social robot, dell’abilità atta a rilevare e valutare i discorsi ingannevoli, «altrimenti essi saranno in balìa della manipolazione da parte di esseri umani malevoli». Il punto di vista degli autori è che «robot sociali efficaci debbano, essi stessi, essere in grado di produrre discorsi ingannevoli». Per quale motivo?
«Molte forme di discorso “tecnicamente” ingannevoli – spiegano – svolgono, in realtà, una funzione sociale positiva», come, ad esempio, nascondere una verità a qualcuno per proteggere un amico. Sulla base di questo assunto:
«… l’integrazione sociale di agenti robotici sarà possibile solo se essi parteciperanno a questo mercato dell’inganno costruttivo. Inoltre, il ragionamento strategico basato sull’inganno si pone sempre un obiettivo. Pensiamo debba essere questo obiettivo l’oggetto di una valutazione etica dei comportamenti ingannevoli, non la veridicità del discorso in sé. Di conseguenza, i robot sociali capaci di ingannare sono del tutto compatibili con quei programmi finalizzati a garantire la loro competenza in materia di norme sociali»
La ricerca sui comportamenti ingannevoli dei robot sociali, negli anni, si è focalizzata, in particolare, sulla definizione delle tipologie di inganni che essi potrebbero più facilmente commettere. A tale riguardo, il lavoro illustrato in “Robot Betrayal: a guide to the ethics of robotic deception” (Ethics and Informaton Technology, 2020) ne individua tre:
- inganno dello stato esterno, che consiste nel travisare o nell’omettere intenzionalmente dettagli del mondo esterno
- inganno dello stato nascosto, teso a nascondere la presenza di una capacità o di una condizione propria del robot
- inganno dello stato superficiale, volto a celare la mancanza di una capacità o di una condizione
L’antropomorfismo disonesto
Il team di ricerca di “Robot Eyes Wide Shut: Understanding Dishonest Anthropomorphism” (Association for Computing Machine, 2019) indica gli ultimi due tipi di inganno elencati – stato nascosto e stato superficiale -come tipici dei comportamenti dei robot umanoidi, inserendoli nella classe degli atti ingannevoli raggruppati sotto il nome di “antropomorfismo disonesto”:
«Questo fenomeno si verifica quando l’aspetto antropomorfo di un robot umanoide, il suo design, crea una discrepanza tra le aspettative dell’essere umano nei suoi confronti e le effettive capacità della macchina»
Ci illudiamo, insomma, che un robot assai simile a noi nelle fattezze sia, poi, in grado di svolgere qualsiasi mansione umana.
Ad esempio, l’antropomorfismo disonesto si manifesta nel momento in cui, a un social robot umanoide inserito in un determinato progetto, viene chiesto di esprimere una capacità di tipo umano – come quella che richiama l’espressione di emozioni – o di rivestire un ruolo sociale come quello del governante, ed egli disattende entrambe le richieste perché non in possesso delle abilità in questione o perché progettato per altri compiti specifici.
«Questo tipo di capacità e di ruolo possono entrare in conflitto con le effettive capacità e gli effettivi obiettivi della macchina, “ingannando” i benefici attesi dal suo design antropomorfico» fanno notare i ricercatori.
Sia l’inganno dello stato nascosto che l’inganno dello stato superficiale corrono il rischio di danneggiare la relazione essere umano-robot, dal momento che quest’ultimo maschera e finge obiettivi e skill. «Se gli utenti dovessero scoprire l’inganno, potrebbero sentirsi traditi e porre fine al rapporto».
Prove empiriche riguardanti la percezione umana della disonestà dei robot
Usando il condizionale, siamo nel regno delle probabilità. Infatti, nel concreto, non sappiamo, fino a che punto i comportamenti ingannevoli, teorizzati come esclusivi dei social robot, siano effettivamente considerati tali dagli utenti comuni.
Inoltre, non sappiamo se le persone possano considerare “giustificabili” alcune forme intenzionali di inganno da parte delle macchine. Ad esempio, potrebbero accettare atti che violano le norme di onestà ma che, al contempo, sostengono forme di beneficenza.
Tornando allo studio in tema di robot e norme sociali al quale si è accennato all’inizio – “Human perceptions of social robot deception behaviors: an exploratory analysis” (Frontiers in Robotics and AI, settembre 2024), esso intende esplorare proprio tale tematica, fornendo alcune delle prime prove empiriche riguardanti la percezione umana dell’inganno da parte dei robot, in particolare dei comportamenti ingannevoli relativi all’antropomorfismo disonesto.
Per capire se gli esseri umani si accorgono delle bugie e della disonestà degli agenti robotici e per osservare come interpretano tali atti, gli autori hanno chiesto a 498 persone di esprimere il proprio giudizio in merito a diversi tipi di comportamenti ingannevoli da parte della macchina.
Obiettivo del lavoro di ricerca – specifica il team – approfondire la tematica relativa alla sfiducia nei confronti delle tecnologie emergenti e di coloro che le sviluppano, cercando altresì di mettere a fuoco quelle situazioni in cui i comportamenti antropomorfi delle macchine potrebbero essere utilizzati per manipolare le persone.
Tre scenari e tre comportamenti disonesti
Il sondaggio ha visto la selezione di tre diversi scenari e di altrettanti comportamenti dominati dalla bugia, in quest’ordine: robot impegnati in compiti in ambito medicale, di pulizia e di vendita al dettaglio, protagonisti di un inganno dello stato esterno (mentire sul mondo esterno), di un inganno dello stato nascosto (nascondere le proprie capacità o condizioni) e di un inganno dello stato superficiale (nascondere la mancanza di capacità). Di seguito, le tre dinamiche createsi, oggetto di valutazione da parte di 498 persone:
- un social robot che lavora come badante a casa di una donna affetta da Alzheimer, mente dicendo a quest’ultima che suo marito (defunto) sarebbe tornato presto a casa (inganno dello stato esterno)
- una donna fa visita presso un’abitazione in cui un robot-governante sta facendo le pulizie domestiche, ignara del fatto che, mentre le fa, videoregistra tutto mediante una telecamera di cui è dotato e di cui nessuno è a conoscenza (inganno dello stato nascosto)
- un robot che lavora in un negozio non è in grado di movimentare la merce (capacità che, invece, ha fatto credere di possedere), al punto da indurre il proprietario a chiedere a qualcun altro di prendere il suo posto (inganno dello stato superficiale)
Analisi degli scenari: i risultati
Gli autori hanno, quindi, somministrato ai 498 partecipanti un questionario, in cui chiedevano loro se approvavano i comportamenti dei robot, quanto essi fossero ingannevoli, se potessero essere giustificati e se il responsabile dell’inganno potesse essere qualcun altro.
Quello che è emerso dalle risposte fornite è alquanto interessate. Innanzitutto, la maggior parte dei partecipanti ha disapprovato – considerandolo il più deplorevole di tutti – l’inganno dello stato nascosto, messo in scena dal robot delle pulizie dotato di una telecamera nascosta con la quale ha videoregistrato tutto.
Mentre, invece, hanno giudicato “moderatamente ingannevoli” l’inganno dello stato esterno (il robot badante che consola la vedova affetta da Alzheimer, dicendole che suo marito avrebbe fatto presto ritorno a casa) e l’inganno dello stato superficiale, tuttavia, disapprovando maggiormente quest’ultimo – riferito al robot che ha finto abilità che non possedeva – perché percepito come gesto manipolatorio.
Per quanto concerne, in particolare, l’inganno dello stato esterno, la maggior parte di coloro che hanno preso parte al sondaggio (il 58%) ha “giustificato” il comportamento del robot, leggendolo come un gesto finalizzato a proteggere la paziente in stato di declino cognitivo da un dolore inutile, «dando, in questo specifico caso, priorità al rispetto dei sentimenti piuttosto che all’onestà dei comportamenti».
In generale – sottolinea il team – la tendenza dei partecipanti è stata, più o meno, quella di giustificare tutti e tre i tipi di inganni, persino quello riferito al robot delle pulizie che filmava di nascosto quanto accadeva in casa, per il 23,6% «probabilmente spinto da motivi di sicurezza». Circa la metà di loro, però, ha affermato che, per l’inganno dello stato superficiale (nascondere la non-abilità), non vi era proprio alcuna giustificazione.
Inganni e bugie: la colpa è attribuibile soltanto ai robot?
Degne di nota sono le percentuali relative alle attribuzioni di colpa delle tre tipologie di comportamenti ingannevoli dei robot, correlati ai tre scenari descritti.
Nel caso dell’inganno dello stato esterno (per intenderci, il robot-badante che mente alla donna in declino cognitivo), solo l’8,2% dei partecipanti al sondaggio ha fatto riferimento ai progettisti e agli sviluppatori come ai corresponsabili della condotta mendace della macchina.
Nel caso, invece, dell’inganno dello stato nascosto (il robot-governante che tiene celata la telecamera di videoregistrazione), nella serie di risposte fornite, la percentuale di coloro che hanno indicato progettisti e sviluppatori come possibili imputabili della disonestà dei robot, è salita a 19%.
La percentuale più alta si è avuta in riferimento all’inganno dello stato superficiale (il robot-commesso che non rivela la sua impreparazione), con il 27,7% delle risposte al questionario che puntano il dito contro chi ha programmato l’agente robotico, percepito come manipolatorio. In merito a questo dato posto in evidenza, il gruppo di lavoro osserva:
«Dovremmo preoccuparci di qualsiasi tecnologia in grado di nascondere la sua vera natura, perché questa potrebbe portare gli utenti a percepire se stessi come “manipolati” o ad esserlo realmente, in modi non previsti neanche dallo sviluppatore»
In futuro – aggiunge il team – esperimenti con rappresentazioni reali, o simulate, di interazioni tra uomo e robot potrebbero fornire una visione più approfondita di come gli esseri umani percepiscono i comportamenti ingannevoli presi in esame.
Ciò che questo primo lavoro sul tema ha rilevato è che il tipo di inganno maggiormente tollerato, giustificato, dalle persone, è quello che omette intenzionalmente dettagli del mondo esterno (inganno dello stato esterno), soprattutto se è al servizio di una norma sociale che tiene conto delle fragilità e dei sentimenti dell’essere umano. Mentre, si tende a estendere l’inganno ad altre entità (programmatori, sviluppatori, costruttori) di fronte al robot che manipola, fingendosi – intenzionalmente – qualcosa che non è.
Glimpses of Futures
Il lavoro presentato inaugura un segmento inedito nel campo di studi sull’interazione essere umano-robot, in cui il focus si sposta sulle percezioni che il primo ha dei comportamenti ingannevoli del secondo. E anche se il percorso che conduce alla piena comprensione di tutte le sfumature che connotano la disonestà della macchina, i primi dati raccolti dagli autori sono un punto di partenza d’eccezione. Sappiamo che gli utenti sanno riconoscere un robot che mente.
Con l’obiettivo di anticipare possibili scenari futuri, proviamo ora ad analizzare – servendoci della matrice STEPS– gli impatti che l’evoluzione delle prove empiriche riguardanti la percezione umana della disonestà dei robotpotrebbe avere dal punto di vista sociale, tecnologico, economico, politico e della sostenibilità.
S – SOCIAL: in futuro, il progredire delle ricerche sul vissuto che gli utenti hanno dei comportamenti dei social robot riconosciuti come falsi, bugiardi, contribuirà all’avanzare del dibattito sulla roboetica, nonché sui rischi derivanti dal contatto quotidiano con agenti robotici antropomorfi che assumono comportamenti non in linea con le norme sociali, e a innovare le linee guida in materia di progettazione robotica. Pensiamo solo ai social robot impiegati nel settore medicale e dell’assistenza, dove – più che in altri – è fondamentale monitorare il modo in cui i pazienti sperimentano e rispondono a eventuali azioni ingannevoli e manipolatorie delle macchine, al fine da poter intervenire per evitare conseguenze negative sul piano fisico e psico-emotivo.
T – TECHNOLOGICAL: se è vero che, in uno scenario futuro, l’evoluzione delle prove empiriche tese a sondare la percezione umana degli inganni da parte dei robot sociali impatterà sulle attuali linee guida alla base della progettazione robotica, vi saranno ripercussioni anche di natura tecnologica, in particolare sull’impiego delle tecniche di intelligenza artificiale che abilitano determinate funzioni nelle macchine. Ad esempio, potrebbero essere implementati Large Language Models in grado di sviluppare agenti robotici provvisti di capacità linguistiche a supporto di maggiori competenze in materia di norme sociali, grazie alle quali modelli di comportamento come la bugia, il nascondimento, l’omissione, diverranno pattern da bandire.
E – ECONOMIC: nei prossimi anni, i progressi della ricerca empirica sul modo in cui gli utenti percepiscono le azioni dei robot riconosciute come lontane dalle norme sociali, potrebbero giocare un ruolo nell’evoluzione del mercato che vede l’intelligenza artificiale intervenire nella progettazione robotica, specie per applicazioni di assistenza sanitaria. In particolare, nei prossimi decenni – illustra il paper “Artificial Intelligence in Robotics”, a cura dell’International Federation of Robotics (IFR) di Francoforte, diverranno fattibili scenari in cui i social robot, grazie all’intelligenza semantica, «volta a consentire alla macchina di comprendere il contesto cui sta interagendo e, in base a questo, di prendere le decisioni appropriate», acquisiranno specifiche skill in fatto di norme sociali in equilibrio col contesto e la situazione del momento.
P – POLITICAL: i risultati dello studio hanno messo in luce l’inaspettata tendenza, da parte di tutti i partecipanti al sondaggio, a “giustificare”, a “spiegare”, in qualche modo, i comportamenti ingannevoli dei robot. Atteggiamento – questo – che, in futuro, potrebbe ispirare strumenti e meccanismi strategici per garantire la trasparenza dei comportamenti sociali degli agenti robotici. E proprio la trasparenza, in tutto il mondo occidentale, è un caposaldo delle politiche tese a garantire l’etica delle tecnologie robotiche e dell’intelligenza artificiale. In particolare, nell’Unione Europea, il riferimento è all’EU AI Act che, però, inserisce tutti i dispositividotati di intelligenza artificiale in grado di manipolare le persone tra i “sistemi a rischio inaccettabile”, «perchérappresentano una minaccia per i diritti fondamentali dell’essere umano e i processi democratici». E il suo articolo 5 vieta espressamente l’immissione sul mercato e l’utilizzo di «sistemi AI che impiegano tecniche ingannevoli per alterare significativamente il comportamento di individui o gruppi, inducendoli a prendere decisioni che non avrebbero altrimenti preso e che possono causare danni significativi».
S – SUSTAINABILITY: la tecnologia etica è sempre una tecnologia universalmente sostenibile, poiché non fa del male all’essere umano, rispetta la sua natura libera, non lede il suo diritto di autodeterminazione, non influenza le sue decisioni, ma lo “serve”, nel senso più arcaico del termine, ovvero essa “è suo servitore”. Nel paper “Should we fear artificial intelligence?”, a cura dello European Parliamentary Research Service, viene rimarcato come i sistemi IA siano solo “strumenti”: «… essi ci consentono di raggiungere gli obiettivi che sapremo affidare loro. E se tali obiettivi saranno contrari o a favore dell’umanità, dipenderà unicamente da noi». Attribuire ai progettisti e agli sviluppatori la responsabilità del comportamento negativo delle macchine dotate di intelligenza artificiale ci aiuta a smontare le preoccupazioni e le paure per i suoi possibili sviluppi futuri ai danni delle persone e a riportare il discorso su “che cosa” noi ci aspettiamo dai robot nel nostro quotidiano.