In un recente documento a cura di McKinsey & Company, si riflette sulla corrispondenza esistente tra quelle aziende che riescono a trarre maggiore valore economico dall’impiego dell’intelligenza artificiale e le migliori pratiche per “spiegare” e fare comprendere l’AI, sia all’interno delle proprie strutture che all’esterno, ossia ai propri clienti.

TAKEAWAY

  • Esiste – all’interno delle organizzazioni – una circolarità tra l’utilizzo dell’intelligenza artificiale per generare utile e la sua spiegabilità: maggiore è il profitto che si trae dall’AI, più alto è il livello di chiarezza dei processi che essa compie. E viceversa.
  • Tra i vantaggi, dal punto di vista operativo, derivanti dall’Explainable AI – a loro volta traducibili in valore economico – ricordiamo il supporto ai reparti tecnici, alla forza vendite e alle misure messe in campo per fare fronte ai rischi legati all’adozione delle nuove tecnologie.
  • La creazione di gruppi interdisciplinari che vedano la collaborazione fattiva tra manager, tecnici AI e legali, oltre all’assunzione di figure con competenze in materia e la formazione continua del personale, vengono indicati da McKinsey come strumenti volti a una maggiore chiarezza circa i “ragionamenti” della macchina.

Esiste una correlazione tra il livello di spiegabilità e di comprensibilità dei sistemi di intelligenza artificiale (la cosiddetta Explainable AI) adottati all’interno delle aziende e i profitti che derivano dal loro utilizzo?

Già un’indagine di McKinsey & Company del 2020 – realizzata online a livello globale su 2.395 imprese appartenenti a vari settori – metteva in evidenza come la metà degli intervistati (1.151, per l’esattezza) impiegasse l’AI in almeno una delle funzioni aziendali, considerandola uno strumento per generare valore, con un folto gruppo che le attribuiva addirittura oltre il 22% del proprio fatturato.

E sempre McKinsey, in un recente articolo a cura dei suoi analisti – dal titolo “Why businesses need explainable AI and how to deliver it” – va più a fondo, osservando come «le aziende che ottengono i maggiori profitti dall’intelligenza artificiale, ossia quelle che attribuiscono almeno il 20 per cento di utili all’uso di tecniche AI, siano poi quelle con maggiori probabilità, rispetto ad altre, di mettere in campo le migliori pratiche per “spiegare” come tali tecniche elaborino i dati in ingresso e, a partire da questi, giungano a determinate decisioni».

Ma non solo. Nel documento, si legge anche che «quelle organizzazioni in grado di favorire, tra i propri clienti, un senso fiducia nei confronti dell’Explainable AI, hanno maggiori possibilità di vedere fatturato e utili crescere a tassi del 10 percento».

Dunque, la tesi che viene avanzata vede l’AI spiegabile e comprensibile a chi ne fa uso nelle aziende, assumere una valenza sempre più forte dal punto di vista economico. Ma, parallelamente, col rafforzarsi da tale tesi, aumentano le difficoltà. Al punto che:

«… le tecniche di modellazione che oggi alimentano molte applicazioni di intelligenza artificiale, come il deep learning e le reti neurali, sono intrinsecamente più difficili da comprendere rispetto a qualche anno fa. E, nonostante tutte le informazioni predittive che l’AI può fornire, i “motori” più avanzati del machine learning spesso rimangono una scatola nera»

La soluzione – spiegano gli autori dell’articolo – attualmente non consiste nel definire le strategie migliori per arrivare a svelare come funziona un sistema AI. Piuttosto, si tratta di mettere a punto «strumenti e processi che – in azienda – possano supportare anche il miglior esperto di artificial intelligence nel cogliere i “ragionamenti” della machina, per poi trasferirli a tutti i dipendenti». Vediamo come questo sia possibile.

Explainable AI nelle aziende: le sfide

È “explainable” quel sistema AI del quale l’essere umano è in grado di ricostruire il comportamento, ovvero il processo che – dato un input – conduce a un output, avendo chiaro i passaggi che guidano la macchina a una precisa decisione o a una previsione

Per arrivare a sviluppare questa capacità, è richiesta la comprensione del funzionamento del sistema e dei tipi di dati utilizzati per addestrarlo.

l che – rimarcano gli analisti di McKinsey & Company – è più facile a dirsi che a farsi, in quanto «è nel tempo che i motori di intelligenza artificiale diventano “più intelligenti”, ingerendo continuamente dati, misurando il potere predittivo di diverse combinazioni algoritmiche e aggiornando il modello risultante. E fanno tutto questo a velocità incredibili, a volte fornendo output in frazioni di secondo».

Inoltre, le stesse esigenze di spiegabilità sono diverse a seconda delle aziende e delle tipologie di operatività implicate. Se l’esigenza di un produttore di auto che applica algoritmi di artificial intelligence per attività di marketing è arrivare a ricostruire l’analisi predittiva del modello, quella di un Istituto bancario che utilizza l’AI per supportare le decisioni che riguardano le concessioni di prestiti, è poter fornire ai clienti ai quali è stata negata la concessione del credito una motivazione plausibile.

Un altro aspetto affatto trascurabile, che rimarca il valore dell’Explainable AI, ha a che vedere con la comprensione dei fattori di rischio sottesi ad alcune decisioni della macchina. Restando nello specifico ambito bancario, il rischio di un sistema di machine learning deputato a rispondere alle richieste di mutui è – ad esempio – quello di decisioni non eque e non corrette, viziate da dati di addestramento che nascondono distorsioni e pregiudizi legati all’età, al genere, all’etnia o al grado di istruzione dei candidati.

I vantaggi

«Essere in grado di padroneggiare le spiegazioni circa il funzionamento, le decisioni e le previsioni dei sistemi AI, è di aiuto a chi, all’interno delle organizzazioni, si occupa di aspetti tecnici, di business, nonché di conformità alle normative e di mitigazione dei rischi inerenti all’utilizzo delle tecnologie» sottolineano gli analisti di McKinsey a proposito di Explainable AI nelle aziende. Ecco di seguito i principali vantaggi posti in evidenza.

Explainable AI nelle aziende: più efficienza da parte dei sistemi adottati

Le tecniche che fanno capo all’Explainable AI consentono a coloro che sono incaricati di supervisionare i sistemi di intelligenza artificiale di rilevare più rapidamente errori o aree di miglioramento. Ad esempio, «la comprensione delle caratteristiche che portano il sistema AI a un determinato output supporta il team di tecnici nel confermare se esso sia generalizzabile, ovvero applicabile per decisioni o previsioni future o se, al contrario, la sua utilità sia correlata alla presenza di specifici dati in ingresso (input)».

Maggiore attenzione alle implicazioni etiche

Un’AI “spiegata” è un’AI che genera fiducia nell’utente. E la fiducia ispira, a sua volta, un senso di sicurezza. In particolare, è importante avere fiducia nel fatto che il sistema di artificial intelligence di cui ci si avvale sappia prendere decisioni «in modo accurato ed equo», senza discriminare alcuno e senza proiettare pregiudizi. Tematica – questa – ampiamente trattata nell’ambito del dibattito sull’etica dell’intelligenza artificiale, focalizzato sulla centralità di un uso responsabile delle tecnologie, nel rispetto della vita e della libertà individuale.

Explainable AI nelle aziende, generazione di nuovo valore

«Disimballare la scatola nera del machine learning, rivelandone il funzionamento, può, talora, stimolare nuovi comportamenti e nuovi interventi da parte delle aziende, contribuendo a generare un valore ancora maggiore rispetto a quello che deriva dall’analisi predittiva effettuata dal modello AI» si legge nel documento di McKinsey. L’esempio riportato è quello della previsione circa l’abbandono da parte dei clienti in un determinato mercato di riferimento, di per sé assai utile al reparto commerciale dell’azienda. Ma la spiegazione del perché la macchina sia giunta a quella previsione, genera un nuovo valore e fa sì che la forza vendite possa migliorare le proprie strategie.

Mitigazione dei rischi

L’Explainable AI nelle aziende aiuta a mitigare i possibili rischi (ai danni della persona) connessi all’impiego dell’intelligenza artificiale. Ma non solo. I legali sono abilitati a utilizzare le spiegazioni fornite dai team di tecnici in merito al funzionamento dei sistemi AI per confermare che questi ultimi siano conformi alle norme e ai regolamenti in materia e che siano allineati alle politiche e ai valori interni dell’azienda. In alcuni settori – ricordano gli analisti di McKinsey – tali spiegazioni fungono da requisiti.

Illustrazione che mostra, elencandoli, i cinque vantaggi dell’explainable AI all’interno delle organizzazioni, suddivisi in base alle figure professionali di riferimento (Fonte: “Why businesses need explainable AI and how to deliver it”, Mckinsey & Company - https://www.mckinsey.com/capabilities/quantumblack/our-insights/why-businesses-need-explainable-ai-and-how-to-deliver-it).
Sintesi dei vantaggi dell’explainable AI all’interno delle organizzazioni, ripartiti in base alle figure professionali di riferimento (Fonte: “Why businesses need explainable AI and how to deliver it” – Mckinsey & Company)

Creare comitati di governance e investire in talenti e tecnologie in tema di Explainable AI

Dopo essersi soffermati sulle sfide e sui vantaggi dell’Explainable AI all’interno delle aziende, gli autori suggeriscono alcuni passi da compiere verso la piena spiegabilità dei sistemi di artificial intelligence. Tra questi, la creazione di gruppi interdisciplinari – comprendenti manager, tecnici AI e legali – col fine di aiutare l’azienda «a verificare che le spiegazioni sviluppate per supportare un determinato modello di intelligenza artificiale siano intuitive ed efficaci per diversi tipi di pubblico».

Una delle funzioni chiave di tali gruppi – che conferisce loro l’appellativo di “comitati di governance” – prevede la definizione di standard per l’Explainable AI, arrivando a stabilire una tassonomia del rischio da utilizzare per classificare i diversi casi d’uso dell’intelligenza artificiale.

E «poiché ogni caso d’uso dell’AI presenta una serie diversa di rischi e di requisiti relativi alla spiegabilità, le organizzazioni dovrebbero stabilire, per i propri team di sviluppatori AI, un iter da seguire per la messa a punto di ogni modello e la definizione dei relativi caso d’uso» specificano gli analisti.

Un altro suggerimento rivolto alle organizzazioni concerne i talenti da attrarre in tema di Explainable AI, oltre agli investimenti in tecnologie e in formazione continua in materia. Riguardo al primo punto – viene puntualizzato nell’articolo – le aziende più strutturate sviluppano all’interno una propria strategia per formare i talenti, cercando, al contempo, di trattenere il personale più preparato in fatto di spiegabilità dell’AI.

Gli investimenti in tecnologie della spiegabilità dovrebbero, invece, «mirare ad acquisire gli strumenti più avanzati, atti a fornire una spiegazione solida dell’artificial intelligence in un contesto che, altrimenti, richiederebbe ai team di sacrificare l’accuratezza».

Scritto da:

Paola Cozzi

Caporedattrice Leggi articoli Guarda il profilo Linkedin