Che tipo di macchine intelligenti vogliamo avere tra noi: robot che salvano cinque persone dall'essere investite da un carrello, sacrificandone una estranea all’incidente, o robot che rifiutano di sacrificare qualcuno, anche se questo gesto significa salvare diverse vite? E, ancora, se il loro aspetto influisce sulla “moralità percepita” delle loro azioni, i robot dovrebbero essere progettati per assomigliare agli umani oppure per essere simili a un ammasso di ingranaggi? Le risposte a queste domande potrebbero influenzare in modo importante la ricerca futura in tema di intelligenza artificiale e robotica.

TAKEAWAY

  • Morality of Intelligent Machines è il nome di un gruppo di ricercatori finlandesi che studia la psicologia morale dei robot e dei sistemi di intelligenza artificiale.
  • In particolare, attualmente il team sta utilizzando una serie di strumenti propri della psicologia sociale sperimentale e della scienza cognitiva per studiare il comportamento e la percezione delle persone in situazioni in cui le macchine intelligenti prendono decisioni cruciali che vedono al centro la vita umana.
  • In un loro recente studio, ai partecipanti è stato chiesto di esprimere un giudizio sulla moralità delle decisioni prese da una serie di macchine intelligenti, giungendo alla conclusione che è l’aspetto percepito del robot che fa la differenza.

Moralità delle macchine intelligenti – nella sua denominazione originale “Morality of Intelligent Machines” – è il nome di un gruppo di ricercatori finlandesi che studia la psicologia morale dei robot e dei sistemi di intelligenza artificiale.

Si tratta di un ambito di studi ancora poco esplorato e affascinante, nato da una precisa considerazione: la robotica e i sistemi AI in generale e, più in particolare, i robot industriali, i robot utilizzati in ambito sanitario e le auto a guida autonoma, sono sempre più in grado di compiere scelte e di prendere decisioni contraddistinte anche da implicazioni di carattere morale, ovvero in rapporto con la scelta nei confronti dei due concetti antitetici di bene e di male.

Già nel 2016, lo scienziato Iyad Rahwan – direttore del Center for Humans and Machines presso il Max Planck Institute for Human Development e professore associato di Media Arts & Sciences presso il MIT Media Lab del Massachusetts Institute of Technology – ha avviato un filone di ricerca focalizzato sul modo in cui la tecnologia sfiderà la nostra morale e sui compromessi morali che siamo propensi o meno ad accettare.

Ma chi programma il codice di condotta morale di queste macchine? Chi allena la moralità delle macchine intelligenti? L’essere umano. E proprio all’essere umano, al modo in cui percepisce i robot e i sistemi AI che prendono decisioni morali e al tipo di moralità che idealmente vorremmo che questi rispettassero, è interessato il team di studio finlandese.

In particolare, attualmente, il team sta utilizzando una serie di strumenti propri della psicologia sociale sperimentale e della scienza cognitiva per studiare il comportamento e la percezione delle persone in situazioni in cui le macchine intelligenti prendono decisioni cruciali che vedono al centro la vita umana, come, ad esempio, la scelta dell’auto a guida autonoma di sacrificare il conducente se questo significasse salvare cinque pedoni.

Moralità delle macchine intelligenti: lo studio sulla percezione umana dei robot

In un recente studio condotto dai ricercatori finlandesi – finanziato dalla Jane and Aatos Erkko Foundation e dall’Accademia di Finlandia – i partecipanti leggono brevi racconti in cui un robot dall’aspetto tradizionale, un robot dai tratti leggermente umanoidi (denominato iRobot), un robot dal marcato aspetto umanoide (chiamato iClooney) e un essere umano si imbattono in un problema di carattere morale, in seguito al quale sono chiamati a prendere una decisione di importanza vitale: un carrello sbanda sui binari, dirigendosi verso cinque persone, col rischio di ucciderle.

La scelta è tra il non fare nulla oppure sterzare su un altro binario, salvando così le cinque persone ma uccidendo un altro individuo che si trova in quel punto preciso.

Dopo avere mostrato ai partecipanti le immagini dei quattro protagonisti dei racconti, viene chiesto loro di esprimere una valutazione sulla moralità delle decisioni da loro prese. Che cosa è emerso? Che, in base ai dati raccolti, la scelta del robot leggermente umanoide (iRobot) e del robot dal forte aspetto umanoide (iClooney) sono state giudicate meno corrette dal punto di vista morale rispetto alla stessa decisione presa da un essere umano e da un robot dall’aspetto tradizionale. Per quale emotivo?

Michael Laakasuo, ricercatore presso l’Università di Helsinki e alla guida del gruppo di studio, collega questi risultati alla percezione che l’essere umano ha dell’aspetto dei robot. E osserva:

L’aspetto anche solo leggermente umano dei robot è percepito dall’uomo come inquietante. E, dunque, ne consegue che gli atteggiamenti e i giudizi nei suoi confronti siano più negativi rispetto a quelli espressi riguardo a robot tradizionali, simili alle macchine

Ciò può essere dovuto – spiega il ricercatore – alla difficoltà (e al timore) di tipo psicologico a reagire, in caso di pericolo, a un essere umanoide. Ci si domanda a che cosa, in realtà, si è di fronte: a un animale? A un essere umano travestito? A uno strano dispositivo? Dunque, è l’aspetto percepito del robot che fa la differenza nel valutare la moralità delle macchine intelligenti.

moralità delle macchine intelligenti
I quattro soggetti al centro dello studio condotto dal gruppo di ricercatori finlandesi sul giudizio dell’essere umano nei confronti delle decisioni morali prese dalle macchine intelligenti: da sinistra un robot classico, iRobot, iClooney e Human (credit: Morality of Intelligent Machines).

Il futuro della ricerca in tema di moralità delle macchine intelligenti e di sviluppo di AI e robotica

Secondo i ricercatori Yochanan E. Bigman e Kurt Gray, del Dipartimento di Psicologia e Neuroscienze dell’Università del North Carolina, gli esseri umani sono, in generale, contrari alle macchine che prendono decisioni. All’origine di tale avversione ci sarebbe – secondo i due studiosi – la percezione non positiva delle “capacità cognitive” possedute delle macchine, anche quelle guidate da sistemi di intelligenza artificiale più avanzati. Non sono ritenute intelligenti, insomma.

E, ora, gli studi condotti dal gruppo di ricercatori finlandesi estendono questi risultati, dimostrando che anche l’aspetto percepito è importante nel giudizio che l’uomo esprime nei confronti delle macchine.

Più nel dettaglio, i risultati della ricerca citata suggeriscono che le persone non sono di per sé contrarie alle decisioni morali prese dai robot. E, infatti, valutano tali scelte accettabili tanto quanto quelle prese dagli esseri umani. Coloro che hanno partecipato allo studio hanno svalutato le scelte morali fatte dai robot dall’aspetto “stranamente” simile a quello umano. Dettaglio importante – questo – che aggiunge un nuovo tassello alla letteratura esistente sulla moralità delle macchine intelligenti.

Ma ora sono necessarie ulteriori ricerche. La dinamica relativa alla percezione umana dei robot va approfondita. Ad esempio – sottolinea Laakasuo – è necessario considerare le potenziali condizioni limite di questa percezione: non è chiaro se l’effetto si riferisca solo a decisioni morali utilitaristiche/deontologiche o se si estenda anche ad altri tipi di decisioni da parte delle macchine, che coinvolgono, ad esempio, il benessere umano.

Il ricercatore, in particolare, sottolinea come, oggi, il numero di macchine intelligenti che compiono scelte di carattere morale stia aumentando. Si pensi, ad esempio, al diffondersi delle auto a guida autonoma. Il che impone di studiare e conoscere come le persone vedono queste auto e quali tipi di fattori influenzano la valutazione morale correlata.

Ad esempio, le violazioni del traffico perpetrate da un’auto elegante a guida autonoma sono percepite in modo diverso da quelle di un modello meno elegante? E la stessa percezione stesso vale per i marchi di auto più noti rispetto ai marchi di basso livello?

E che tipo di macchie intelligenti vogliamo avere tra noi: robot che salvano cinque persone dall’essere investite da un carrello, sacrificandone una estranea all’incidente, o robot che rifiutano di sacrificare qualcuno, anche se questo gesto significa salvare diverse vite? E, ancora, se il loro aspetto influisce sulla “moralità percepita” delle loro azioni, i robot dovrebbero essere progettati per assomigliare agli umani oppure per essere simili a un semplice ammasso di ingranaggi?

Le risposte a questo tipo di domande – conclude Michael Laakasuo – potrebbero influenzare in modo importante la direzione futura in tema di intelligenza artificiale e robotica.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin