In attesa del primo strumento normativo globale sull'etica dell'intelligenza artificiale, a cura dell’UNESCO e in approvazione a novembre del 2021, “è importante che adesso si passi, dai principi, alle azioni concrete” sottolinea Francesca Rossi, AI Ethics Global Leader IBM. Di strumenti di cui servirsi per sviluppare sistemi di Artificial intelligence che siano etici, le aziende, gli sviluppatori AI, ne hanno. Ora è tempo di tradurre il tutto in fatti.

In tema di intelligenza artificiale ed etica, la parola d’ordine, ora, è “concretezza”. Sulla materia è stata prodotta letteratura in abbondanza. Sono state avanzate proposte, definiti codici, linee guida, raccomandazioni, requisiti e principi. E non solo in Europa. A maggio del 2019, persino la Cina ha pubblicato i propri principi etici per un uso corretto dell’intelligenza artificiale. E, tra le aziende, Google, già a giugno del 2018, ha pubblicato i propri.

Manca ancora una norma, è vero. Ma, a novembre dello scorso anno, alla 40a sessione della Conferenza generale, gli Stati membri dell’UNESCO hanno incaricato l’Organizzazione di sviluppare uno strumento normativo globale sull’etica dell’intelligenza artificiale, da presentare alla 41a sessione della Conferenza generale per l’approvazione, a novembre del 2021. Manca poco più di un anno. Nell’attesa, le aziende possono fare molto in termini di azioni, di fatti. Osserva Francesca Rossi, AI Ethics Global Leader IBM:

“È importante che adesso si passi, dai principi di alto livello, alle azioni concrete in fatto di etica. A tale riguardo, io e i miei colleghi, oltre ai progetti di ricerca, investiamo molto del nostro tempo in attività interne che aiutino tutte le divisioni dell’azienda a capire che cosa davvero significhi, nell’ambito del loro lavoro quotidiano, rispettare i requisiti etici dell’AI. Questo è uno sforzo che stanno facendo molte aziende del settore ed è uno sforzo che va fatto ora. Di raccomandazioni e di codici ce ne sono abbastanza. Ora bisogna passare ai fatti

E, insieme a Francesca Rossi, rimaniamo sulla linea del “concreto”, del “cosa” e del “come”, a partire dai timori, dalle preoccupazioni che l’AI può suscitare in chi la utilizza – e da cui prende il via tutto il dibattito sull’etica – dal rischio reale che la macchina, a partire dai dati che le trasferiamo, prenda decisioni discriminatorie, per finire agli strumenti di cui, oggi, le aziende del settore possono servirsi per sviluppare sistemi di Artificial intelligence che siano etici. A lei la parola.

Francesca Rossi, AI Ethics Global Leader IBM
 Francesca Rossi, AI Ethics Global Leader IBM

Dottoressa Rossi, che cosa significa ragionare in termini di etica quando si parla di artificial intelligence?

Significa molte cose. Per coglierle, dobbiamo prima domandarci il perché di tutta questa preoccupazione nei confronti degli aspetti etici legati all’AI. Preoccupazione che, in realtà, sorge di fronte a qualsiasi tecnologia pervasiva in grado di portare trasformazioni nella nostra vita, il cui impatto può, talvolta, spaventarci. Nel caso specifico dell’intelligenza artificiale, i timori sono legati proprio al tipo di tecnologia. Ad esempio, al fatto che, tra le tecniche che utilizza, ve ne sono alcune che appaiono come “scatole nere”, il cui meccanismo, proprio come una black box, è descrivibile solo guardando al comportamento esterno, in quanto rimane incomprensibile come, da determinati dati in ingresso, derivi, poi, una determinata decisione in uscita. Cosa c’è dentro la scatola nera resta ignoto ai non addetti ai lavori.

Si riferisce, in questo caso, al machine learning. Che cosa preoccupa, nel concreto, di questa tecnologia?

Il fatto di non riuscire a capire in che modo – e perché – prenda determinate decisioni, rende insicuri e fa sì che non ci si affidi tranquillamente a una macchina del genere, soprattutto nel seguire le raccomandazioni e i suggerimenti che questa dà a chi la utilizza e la interroga. Questo è un esempio tipico di “paura” generata dall’AI. Un altro esempio ancora è correlato al suo funzionamento, che poggia su una grande quantità di dati. Da qui scaturiscono tutta una serie di preoccupazioni sulla loro gestione, su chi c’è dietro questi dati, sul loro reale utilizzo. E poi, sempre riguardo alle decisioni che prendono e ai suggerimenti che danno, la domanda frequente che ci si pone è se queste macchine sappiano distinguere tra una decisione buona e una cattiva, se sono attente a non prendere decisioni che potrebbero essere discriminatorie.

Perché una macchina dovrebbe prendere decisioni discriminatorie?

Chi sviluppa sistemi AI, non trasferisce loro tutti i passaggi da compiere per risolvere un determinato problema e prendere la decisione giusta. Alle macchine non vengono date soluzioni, bensì esempi. Questo significa che è di fondamentale importanza inserire nella macchina esempi corretti dal punto di vista etico. Se vogliamo che un sistema sia in grado di discernere tra una richiesta di mutuo dai requisiti giusti per poter essere accettata e una proposta che, invece, non li possiede, e lo alleniamo dandogli esempi diversi di richieste, specificando, per ognuna, se sia idonea, dobbiamo stare attenti a non trasferire modelli in cui – ad esempio – tutte le richieste di mutuo da parte di persone giovani vengono accettate, mentre quelle che provengono da parte di persone anziane vengono rifiutate. Dandole – non intenzionalmente – la correlazione tra età degli utenti e opzioni di rifiuto o di accettazione, mettiamo la macchina nelle condizioni di operare scelte discriminatorie nei confronti di un target di età specifico.

Lei ha fatto parte del Gruppo di esperti sull’Intelligenza Artificiale della Commissione Europea: qual è, per quanto riguarda gli aspetti etici dell’AI, il valore dei due anni di lavoro svolto e in che modo questo rappresenta uno strumento per le aziende del settore?

Durante i due anni di mandato, abbiamo prodotto e pubblicato diversi documenti che si prefiggono di fungere da guida per tutti coloro che lavorano in ambito AI. Il primo e, in assoluto, il più importante, è dato dalle linee guida per un’intelligenza artificiale etica in Europa, un codice contenente sette requisiti atti ad assicurare l’affidabilità dell’intelligenza artificiale, condizione base affinché gli utenti possano beneficiare del suo utilizzo. Oltre a questo documento, abbiamo messo a punto anche l’Assessment List for Trustworthy Artificial Intelligence (ALTAI), un test di autovalutazione per “misurare”, attraverso una serie di domande, il livello di affidabilità dei sistemi AI. L’obiettivo di tale strumento è quello di aiutare gli sviluppatori a divenire più consapevoli circa i requisiti dell’intelligenza artificiale etica, a seguirli, a inserirli nei loro processi di lavoro, ad applicarli nel momento in cui danno vita a un nuovo algoritmo o a un nuovo sistema di artificial intelligence.

Che cosa ne pensa del dibattito tra tecnici di intelligenza artificiale ed eticisti?

Trovo che, sempre di più, non sia un dibattito tra due gruppi separati, distanti tra loro, ma che le due sfere si integrino. All’interno delle Università di tutto il mondo, durante le lezioni dei corsi di informatica, si parla ormai anche di aspetti etici. E sono sempre più numerosi i tecnici dell’AI che conoscono gli aspetti dell’etica e gli eticisti che, a loro volta, possiedono un sapere tecnico in fatto di artificial intelligence. È vero che, per molto tempo, i ricercatori sono stati un po’ restii ad aprirsi a questo genere di dibattito ma, da almeno cinque o sei anni, le cose sono cambiate e oggi c’è più apertura al tema. Io personalmente, insieme ad altri colleghi, ho iniziato un nuovo ciclo di conferenze annuali su AI, etica e società. E, in particolare, il tema dell’impatto dell’intelligenza artificiale sulla società è, oggi, presente in tutti i programmi delle maggiori conferenze sull’argomento.

Chi afferma che non esiste un’etica dell’intelligenza artificiale, sta lanciando una provocazione?

Credo che, in realtà, voglia dire che esiste un certo conflitto, una tensione, tra quella che è l’attenzione ai problemi etici dell’AI da un lato e la business value, il profitto che proviene dall’AI, dall’altro. Personalmente, penso che questa tensione sia solo apparente e che i due ambiti – etica e profitto dell’artificial intelligence – vadano di pari passo. Anzi, il modo ottimale per migliorare, affinare, le capacità dell’AI e, allo stesso tempo, per trarne profitto, è includere nel suo studio e nel suo sviluppo anche i principi etici. I clienti stessi ci chiedono in che modo, in IBM, affrontiamo l’etica rispetto ai sistemi di intelligenza artificiale. La sensibilità nei confronti di questo tema sta diventando un motivo di differenziazione per le aziende del settore.

Vorrei concludere con uno sguardo lungo: è immaginabile un futuro in cui persone e macchine lavoreranno insieme per risolvere alcuni dei problemi più critici dell’umanità, dal trattamento di alcune malattie alle previsioni di eventi meteorologici e naturali, fino alla possibilità di trovare soluzioni contro lo stato di povertà di intere popolazioni?

È sempre più importante che ci si renda conto che scienza e tecnologia, oggi, possono fornire soluzioni in passato inimmaginabili. La pandemia da covid ce ne ha dato una dimostrazione concreta, accelerando l’utilizzo di macchine dall’importante potenza computazionale nell’ambito di scoperte che prima potevano essere realizzate solo in modo manuale e con tempistiche molto dilatate. Pensiamo, in particolare, all’uso di tecniche che, sfruttando supporti hardware molto veloci, hanno portato all’individuazione di proteine utili, a biologi e virologi, per comprendere quali potevano essere testate per lo studio del vaccino contro il coronavirus. Una prima scrematura delle proteine da utilizzare, insomma, è stata possibile grazie alle tecnologie AI.

Disegno di una bilancia al centro di un cerchio giallo, sul cui sfondo si staglia il disegno profilo di un volto umano. In alto la scritta intelligenza artificiale ed etica e in basso la scritta artificial intelligence ethics
A novembre dello scorso anno, gli Stati membri dell’UNESCO hanno incaricato l’Organizzazione di sviluppare uno strumento normativo globale sull’etica dell’intelligenza artificiale, da presentare alla 41a sessione della Conferenza generale per l’approvazione, a novembre del 2021.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin