Valutare i progressi delle organizzazioni nell’implementazione di un programma di Intelligenza Artificiale Responsabile (RAI – Responsible Artificial Intelligence). Questo l’obiettivo di una recente indagine condotta a livello globale da BCG Gamma, il global tema di BCG – Boston Consulting Group dedicato ad advanced analytics e intelligenza artificiale.

La fotografia che emerge mostra aziende troppo sicure del proprio operato: il 55% delle organizzazioni prese in esame [BCG ha raccolto e analizzato i dati dei dirigenti di più di 1.000 grandi organizzazioni che operano in sei differenti regioni geografiche e nove settori principali – nda] percepisce la propria maturità sul fronte dell’utilizzo di una intelligenza artificiale responsabile maggiore di quanto non sia davvero nella realtà. Non solo, meno della metà di coloro che hanno dichiarato di voler adottare l’intelligenza artificiale su larga scala hanno un programma di intelligenza artificiale responsabile realmente maturo.

Cos’è l’intelligenza artificiale responsabile

Per capire in che modo si è arrivati a delineare tale scenario, innanzitutto è bene evidenziare cos’è l’intelligenza artificiale responsabile. Secondo quanto riporta Sylvain Duranton, Global Leader di BCG Gamma e coautore del report di ricerca, una RAI – Responsible Artificial Intelligence è la disciplina che riguarda «lo sviluppo e l’implementazione operativa di sistemi basati su tecniche di intelligenza artificiale che integrano empatia umana, creatività e cura per assicurare che tali sistemi operino nella giusta direzione in termini di impatti sulla trasformazione di business».

Intelligenza artificiale responsabile - La definizione di BCG
Intelligenza artificiale responsabile – La definizione di BCG (nella foto: Sylvain Duranton, Global Leader di BCG Gamma)

Cosa significa dunque intelligenza artificiale responsabile da un punto di vista pratico:

  • garantire che gli obiettivi e i risultati dei sistemi di AI – Artificial Intelligence siano equi, imparziali e spiegabili;
  • mettere in sicurezza i sistemi affinché siano affidabili e robusti;
  • seguire best pratice in termini di privacy (dei dati e degli utenti) e data governance;
  • minimizzare eventuali impatti negativi su società e ambiente;
  • aumentare le abilità umane, non rimpiazzarle.

Le sette dimensioni dell’intelligenza artificiale responsabile

Steven Mills, Chief Ethics Officer di BCG Gamma e coautore del report di ricerca, spiega che si parla di RAI – Responsible Artificial Intelligence, ci sono alcune dimensioni generalmente accettate che delineano su quali principi “prende forma” una strategia (ed il concetto stesso) di intelligenza artificiale responsabile.

Queste le sette dimensioni:

  1. imparzialità ed equità
  2. governance dei dati e privacy
  3. sicurezza, affidabilità e robustezza
  4. trasparenza e “spiegabilità” (Explainable AI)
  5. mitigazione degli impatti sociali ed ambientali
  6. responsabilità (accountability)
  7. human + AI (intelligenza aumentata)

Tenendo conto di tutte queste dimensioni, il livello di maturità delle implementazioni di sistemi di intelligenza artificiale responsabile si snoda su quattro differenti fasi e, dall’indagine di BCG Gamma, risulta evidente una situazione disomogenea. Il 14% delle aziende prese in esame è “in ritardo”, il 34% in via di sviluppo. Tuttavia, ci sono aziende che sembrano essere ad uno stadio avanzato (31%) ed altre addirittura leader in questo percorso (21%).

Le quattro fasi del livello di maturità delle aziende nell'implementazione dell'intelligenza artificiale responsabile
Le quattro fasi del livello di maturità delle aziende nell’implementazione dell’intelligenza artificiale responsabile (nella foto: Steven Mills, Chief Ethics Officer di BCG Gamma)

Perché le aziende si sopravvalutano

Le “note dolenti” arrivano però quando si compara davvero la “sensazione” delle aziende (rilevabile dalle risposte che hanno dato i dirigenti intervistati) e si fa un analisi più approfondita del loro livello di maturità secondo le sette specifiche dimensioni della RAI. Come accennato, infatti, ben il 55% delle aziende del panel ha una percezione del proprio livello di maturità in ambito intelligenza artificiale responsabile decisamente superiore rispetto alla realtà dei fatti.

«Devo ammettere che sono rimasto sorpreso nel constatare che ci sono tante organizzazioni sono eccessivamente ottimiste sulla maturità della loro implementazioni RAI. Sebbene molte organizzazioni stiano facendo progressi, è chiaro che la profondità e l’ampiezza della maggior parte degli sforzi sono inferiori a ciò che è necessario per garantire veramente un’intelligenza artificiale responsabile», commenta Steven Mills.

Analizzando in dettaglio ciò che emerge dall’indagine, ciò che le aziende tendono a trascurare sono gli aspetti di imparzialità ed equità, la mitigazione dell’impatto sociale e ambientale e l’intelligenza aumentata, «perché sono difficili da affrontare», sottolinea Mills. «Le aziende sono più confidenti sugli aspetti di data governance e privacy, nonché sugli aspetti di robustezza, affidabilità e sicurezza delle tecnologie, perché sono “campi conosciuti” nei quali hanno già una buona esperienza».

Le sette dimensioni dell'intelligenza artificiale responsabile
Le sette dimensioni dell’intelligenza artificiale responsabile: le aziende sono meno preparate quando si tratta di temi legati ad imparzialità ed equità, mitigazione dell’impatto sociale e ambientale ed intelligenza umana aumentata (nella foto: Steven Mills, Chief Ethics Officer di BCG Gamma)

Sul “perché” le aziende si sopravvalutino, puntualizzando sul fatto che non c’è una chiara visibilità sulle cause, Steven Mills fa alcune considerazioni: «la non conoscenza e non visibilità sulle sette dimensioni (non essendoci un vero e proprio framework universalmente riconosciuto e approvato) rappresenta certamente un limite; le aziende si sentono mature su alcune di queste dimensioni, non conoscendo le altre hanno una percezione del loro livello di maturità superiore a quanto sia in realtà. C’è poi forse un gap legato più nello specifico alla “portata aziendale” dei vari progetti di intelligenza artificiale responsabile e dei processi coinvolti. A volte si tratta di progetti legati ad uno specifico ambito di business che coinvolge solo alcuni processi; in quest’area la maturità può anche essere elevata, ma è innegabili che per “godere” di un reale buon livello di maturità l’intelligenza artificiale responsabile dovrebbe essere diffusa in azienda a tutti i livelli e lungo tutti i processi».

Scritto da:

Nicoletta Boldrini

Futures & Foresight Director | Direttrice Responsabile Tech4Future Leggi articoli Guarda il profilo Linkedin