La fiducia nei processi decisionali assistiti da sistemi AI

Un inedito studio in materia di processi decisionali assistiti da sistemi di intelligenza artificiale propone una metodologia utile a guidare gli utenti a una comprensione più profonda di quelle situazioni in cui la macchina compie previsioni corrette e quelle in cui, invece, compie previsioni errate.

TAKEAWAY

  • Un team di ricercatori del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT ha elaborato una tecnica di addestramento volta a “insegnare” ai professionisti ad avere fiducia nei sistemi di intelligenza artificiale che li supportano nei processi decisionali.
  • Tra i risultati emersi dai test con i quali tale tecnica è stata messa alla prova, il fatto che coloro che sono stati addestrati sono riusciti a cogliere i punti di forza e i punti deboli del sistema di intelligenza artificiale in oggetto tanto quanto il gruppo di controllo, riuscendone a prevedere le decisioni come se le avessero apprese in anteprima.
  • In futuro, l’obiettivo è quello di perfezionare la metodologia sviluppata, nonché riuscire a sondare le dinamiche che regolano il livello di fiducia del personale medico-sanitario nei riguardi dei sistemi di intelligenza artificiale particolarmente complessi, per la presa di decisioni in ambito clinico.

Prendere decisioni rapide, supportati da sistemi AI che fungono da guida: accade, oggi, ai professionisti all’interno di numerosi contesti, dal marketing – in cui, ad esempio, le tecniche di intelligenza artificiale detengono un proprio ruolo nel processo decisionale riferito al business – fino ad arrivare all’ambito sanitario, con diagnosi cliniche sempre più spesso formulate grazie anche all’aiuto dell’analisi predittiva. Si tratta solo di due tra i tanti esempi. La lista, infatti, potrebbe continuare.

E se la macchina sbagliasse? Se desse – per qualsiasi motivo – consigli errati? La probabilità del fallimento esiste. Ma, più di tutti, esiste il timore – da parte dell’essere umano – che questo si verifichi, la paura che l’intelligenza artificiale porti a processi decisionali destinati all’insuccesso.

In un interessante lavoro dal titolo “Teaching Humans When To Defer to a Classifier via Exemplars” – a cura del Clinical Machine Learning Group del Computer Science and Artificial Intelligence Laboratory (CSAIL), in seno al Massachusetts Institute of Technology (MIT), e presentato lo scorso febbraio presso la statunitense Association for the Advancement of Artificial Intelligence – il team di studio si è posto un dubbio in merito alla reale fiducia che, chi lavora consultando dati e analisi provenienti da sistemi basati sull’intelligenza artificiale, ripone nei confronti di tali strumenti, focalizzandosi, in particolare, sulla creazione del giusto equilibrio che necessariamente deve venirsi a creare tra il decisore umano e il suo assistente AI nel momento chiave della presa di decisione. Vediamo insieme che cosa è emerso dall’inedita ricerca.

L’intelligenza artificiale nel processo decisionale: la centralità dei modelli mentali dell’AI nel determinare il livello di fiducia

Lo studio del MIT in tema di intelligenza artificiale nel processo decisionale parte da una considerazione ben precisa, che ha a che vedere con i modelli mentali, ossia con le rappresentazioni interne di eventi, azioni, persone e oggetti che l’essere umano costruisce sulla base delle proprie esperienze e dell’osservazione della realtà. Anche nel momento in cui – nell’ambito della propria professione – si trova a dover interagire con un sistema di intelligenza artificiale la cui funzione è quella di sostenerlo nel processo decisionale, consigliandolo, egli costruisce un modello, una mappa mentale di tale sistema, che lo aiuta a stabilire le aspettative nei riguardi delle sue prestazioni, sulle quali poggia la fiducia nei suoi confronti.

Tenendo a mente questi concetti, il team del MIT ha messo a punto una tecnica di addestramento, il cui scopo è quello di insegnare ai professionisti come sviluppare fiducia verso i propri assistenti AI, ricordando che la fiducia è il terreno ideale per collaborazioni efficaci e produttive con le macchine.

Fa parte dell’addestramento una fase preliminare di conoscenza del sistema AI col quale si andrà a collaborare, fornendo agli utenti esempi rappresentativi delle sue abilità e dei suoi limiti, tali da costituire punti di riferimento ai quali attingere in fase di test e – aspetto saliente – sui quali poter costruire il proprio modello mentale.

La tecnica di addestramento elaborata dal team di ricerca

In tema di intelligenza artificiale nel processo decisionale, la tecnica di addestramento elaborata dal team di studio prevede una serie di domande, alle quale ognuno dei partecipanti è chiamato a sottoporsi, prevedendo – sulla base del modello mentale costruito in precedenza – le risposte da parte di un assistente dotato di intelligenza artificiale. Dopo tali previsioni, le stesse domande vengono poste all’assistente AI.

Agli utenti, naturalmente, non è permesso conoscere in anticipo le risposte della macchina. Solo al temine della batteria di domande, vengono mostrate loro le risposte corrette e le spiegazioni del motivo per cui il sistema le ha date. Più in particolare, «vengono mostrati agli utenti due esempi opposti, che spiegano il motivo delle risposte esatte e il motivo delle risposte errate da parte dell’AI».

Ad esempio, una delle domande – dopo la lettura di un breve testo di botanica – chiede quale di due piante citate sia originaria di più continenti. Gli utenti, in questo caso, possono scegliere di rispondere da soli, senza supporto, oppure lasciarsi aiutare dall’assistente, che risponde per loro. Quindi, solo in fase di svelamento delle risposte corrette e di quelle sbagliate, gli “umani” sono nelle condizioni di rendersi davvero conto (al di là dei modelli mentali precedentemente costruiti) delle reali capacità del sistema, che può avere torto sulle domande di botanica e, al contrario, avere ragione sulle domande in tema di astronomia.

Per ogni esempio, vengono poi evidenziati gli esatti termini utilizzati dall’assistente AI nel compiere le proprie previsioni e nel fornire le risposte. E questa fase dell’addestramento – viene sottolineato nel paper – è decisiva, per i partecipanti, al fine di comprendere i punti di forza e i punti deboli del sistema di intelligenza artificiale in questione, riferiti a determinati argomenti e situazioni, affinando così il modello mentale che lo rappresenta.

L’intelligenza artificiale nel processo decisionale: i risultati emersi dallo studio del MIT 

In tema di intelligenza artificiale nel processo decisionale, la tecnica di addestramento illustrata è stata testata su tre gruppi di partecipanti, ma in maniera differente: a un primo gruppo è stata somministrata in modo completo, a un secondo gruppo solo parzialmente (senza la parte relativa allo svelamento delle risposte esatte e di quelle sbagliate da parte del sistema AI), mentre il gruppo di riferimento non ha ricevuto alcun addestramento, ma ha potuto, però, vedere in anticipo tutte le risposte della macchina.

Dai risultati dei test, è emerso che gli utenti che hanno ricevuto l’addestramento completo sono riusciti a comprendere le reali capacità del sistema di intelligenza artificiale tanto quanto il gruppo di controllo, riuscendo, quindi, a simulare le risposte dell’assistente AI come se le avessero lette in anticipo.

Andando più in profondità, è emerso anche un altro dato interessante, che ha visto quasi il 50% di coloro che sono stati addestrati in modo completo elencare in maniera assai puntuale le abilità e i limiti della macchina nel fornire le risposte esatte, i quali hanno avuto ragione sul 63% degli esempi. Mentre chi non ha ricevuto alcun addestramento, ma ha comunque potuto scorgere in anticipo le risposte, ha avuto ragione sul 57% delle domande. Ma, osservano i ricercatori del MIT:

«… i risultati mostrano anche che c’è ancora un divario. Solo il 50% degli utenti addestrati ha costruito modelli mentali accurati del sistema AI. E coloro che lo hanno fatto, hanno avuto ragione solo nel 63% dei casi. Il che significa che, pur addestrati e preparati e con precisi modelli mentali, non hanno sempre seguito le regole»

Quest’ultimo punto lascia ancora aperta una questione: anche se le persone si fidano del proprio assistente AI in quanto ne conoscono le abilità e sanno che le sue risposte a determinate domande dovrebbero essere corrette, non seguono la rappresentazione mentale che hanno di lui.

In futuro, il team di studio proseguirà nella direzione di tale discrepanza – per sondarla e giungere a nuove risposte sul tema della fiducia nei processi decisionali assistiti da sistemi di intelligenza artificiale – oltre a perfezionare il metodo della costruzione di un modello mentale dell’AI, che aiuti a definire in modo sempre più puntuale le aspettative nei riguardi delle sue prestazioni e, dunque, a elevare il grado di fiducia nei suoi confronti. Infine, un altro obiettivo è quello – in futuro – di poter condurre studi sulla fiducia del personale medico-sanitario nei confronti dei sistemi di intelligenza artificiale particolarmente complessi, per la presa di decisioni in ambito clinico.

Default image
Paola Cozzi

Giornalista dal solido background acquisito lavorando presso i più prestigiosi Editori italiani | Ventidue anni di esperienza nello sviluppo di prodotti editoriali b2b, cartacei e digitali | Vent'anni alla direzione di una testata b2b in tema di Sicurezza anticrimine di tipo fisico | Attualmente si dedica al Giornalismo Digitale ed esplora nuove tecniche e nuovi stili di comunicazione

Articles: 241

Newsletter Updates

Inserisci il tuo indirizzo email qui sotto per iscriverti alla nostra newsletter