Bias nell’intelligenza artificiale: linee guida del NIST per contrastare i pregiudizi nei sistemi AI

Il NIST, agenzia governativa statunitense, ha reso note una serie di raccomandazioni su come allentare le distorsioni nell’artificial intelligence. A un’accurata catalogazione delle possibili minacce, segue un approccio pragmatico che coinvolge l’intero lifecycle delle macchine, indicandone le criticità.

TAKEAWAY

  • L’universo tecnologico è oggi costantemente insidiato da credenze discriminatorie relative al sesso, all’etnia o alla condizione sociale.
  • Il NIST, agenzia del governo USA, ha tracciato delle linee guida per riconoscere i pregiudizi che i programmatori portano con sé.
  • Una soluzione plausibile sta nella collaborazione tra esperti di vari settori che, insieme, possono monitorare tutti i passaggi, dal brainstorming alla realizzazione del prototipo.

I bias nell’intelligenza artificiale sono abbastanza ricorrenti nel panorama attuale e diventano argomento di discussione nelle aule universitarie e non solo. Per quale motivo? E cosa stanno a significare? Cominciamo col dire che il termine inglese “bias” indica un giudizio non pienamente oggettivo, bensì influenzato da un’idea magari superficiale che ci siamo fatti su una situazione.

A più voci gli scienziati fanno appello all’inclusività, progettando congegni che non escludano chi si discosta dallo stereotipo dell’individuo di genere maschile e ceppo caucasico. Uno schema che si colloca in una tendenza a interpretare a modo proprio gli avvenimenti.

A commettere l’errore non è l’algoritmo in sé ma chi lo sviluppa, come ribadito da Linda Sabbadini, direttrice dell’Istat e Chair del Women20, summit annuale sul gender gap ospitato dall’Italia per l’edizione in corso.

Gli sviluppatori di algoritmi – ha ricordato – sono perlopiù uomini caratterizzati demograficamente e, per via di ciò, trascinano con sé, nel mestiere, le loro opinioni. All’interno di enti e imprese, bisogna prediligere degli staff assortiti in maniera eterogenea”.

Un ragionamento che si può estendere alle fonti a cui attingono i software. Se disponiamo di un archivio che contiene esclusivamente immagini di un’unica classe, la successiva elaborazione sarà circoscritta in confini molto rigidi.

Sul tema si è espresso, il 21 giugno, il NIST (National Institute of Standards and Technology), agenzia governativa degli USA, con una pubblicazione dal titolo “A Proposal for Identifying and Managing Bias in Artificial Intelligence”, per far sì che gli addetti ai lavori non incorrano in valutazioni inesatte. Per calarci nella questione, andiamo ad approfondire il percorso che hanno intrapreso e le conclusioni a cui sono giunti.

Come si manifestano i bias nell’intelligenza artificiale

Un glossario, posto in appendice, mostra che forma possono assumere i bias nell’intelligenza artificiale, ampliando parecchio l’orizzonte. Colpisce, in primis, un tipo di selezione che premia gli utenti più attivi e il concetto di “bias cognitivo”, ovvero la tendenza a fondarsi su una cerchia ristretta di valori, per pura semplicità.

Un ostacolo non da poco sorge nel momento in cui, dai laboratori, un determinato modello AI si affaccia al mondo esterno, soprattutto se non è ancora pronto a misurarsi con circostanze reali. Si parla allora di “concept drift”, un imprevisto che caratterizza di frequente il machine learning.

Muoversi fuori dal dominio prefissato, può essere dunque un errore, come il non conteggiare alcune popolazioni (“exclusion”), scelta che porta a favorirne altre (“systemic”). Un’altra mossa un po’ avventata è l’addestramento di un algoritmo con asserzioni non verificate e che possono essere quindi potenzialmente distorte.

Il report mette in luce, in sostanza, come si articolano le ragioni che stanno dietro ai comportamenti descritti che non attengono esclusivamente a disattenzioni individuali, ma a tanti fattori ambientali.

A processo completato, si possono ravvisare, ad esempio, delle mancanze nell’operazione di “data visualization” ossia di presentazione dei risultati dando più rilevanza a una parte di essi.

La proliferazione di approcci predittivi si è incontrata, nel tempo, con crescenti preoccupazioni nei confronti dell’AI, i cui pregiudizi possono talvolta divenire più pericolosi di quelli formulati dall’uomo, amplificando le diseguaglianze.

Il parere del NIST

L’automazione, come sappiamo, può portare vantaggi enormi e significativi a patto di impostare dei parametri corretti nel suo funzionamento. La stessa raccolta dei dati può essere distante dalla effettiva verità se i campionamenti lasciano fuori delle categorie o se rispecchiano convinzioni ataviche e dure a morire.

Si delinea così la cornice in cui l’agenzia americana intende far accrescere la fiducia delle persone nell’AI, con un’agenda che prevede workshop online nel prossimo biennio. L’iniziativa è all’insegna di una partecipazione attiva perché il pubblico può, fino al 10 settembre 2021, avanzare modifiche al testo diffuso il mese scorso. A tal proposito uno degli autori, Reva Schwartz, ha dichiarato:

Vogliamo coinvolgere la comunità nel mettere a punto standard, basati su un ampio consenso, per gestire i bias nell’intelligenza artificiale e batterci affinché i test siano effettuati sempre nel perimetro di riferimento, al fine di mantenere i presupposti originari. Ecco perché i feedback che riceveremo saranno fondamentali

Il metodo suggerito dal NIST si snoda lungo il ciclo di vita delle tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale. L’iter inizia dalla pianificazione, frangente in cui si esaminano le nozioni attinenti al campo su cui si vuole intervenire; qui si incontrano più profili professionali come ha precisato Elham Tabassi, membro della National AI Research Resource, task force statunitense impegnata su questo fronte:

Non ci rivolgiamo solamente a ingegneri e informatici, ma anche a psicologi, sociologi, avvocati e a tante figure tenute lontane dal dibattito sull’artificial intelligence perché non coinvolte direttamente. Otteniamo, in tal senso, una visione completa che consente di arginare meglio eventuali falle

Bias nell’intelligenza artificiale, le prospettive future

Un archivio o dataset ritenuto affidabile può essere percepito diversamente dal fruitore del servizio offerto che non va deluso nelle sue aspettative.

Per evitare ciò, un accorgimento, che può fungere da bussola per gli anni a venire, è definire con precisione il “fuoco” del problema e avere ben chiari gli obiettivi a cui mirare. L’apporto della giurisprudenza e delle scienze sociali si rivela necessario sin dalla fase di ideazione del software, al fine di incentivare un modus operandi che tenga conto delle differenze.

Una consapevolezza che, secondo il NIST, è in aumento nel comparto industriale, con la redazione di appositi vademecum, pensati per indirizzare aziende tech e centri di ricerca, che non devono puntare ad azzerare i rischi, ma ridurli dopo averne identificato la portata.

Negli ultimi anni si sono moltiplicati casi spinosi a riguardo, dalla classifica dei dipendenti in virtù delle loro performance alla marginalizzazione delle donne, fino al preferire specifiche aree geografiche nell’elaborazione di statistiche finalizzate alla sperimentazione.

Distinguere le numerose tipologie di bias nell’intelligenza artificiale è il primo passo di una grande trasformazione culturale che sappia bilanciare da un lato la voglia di creare progresso e, dall’altro, il rispetto dei diritti umani.

Default image
Emanuele La Veglia
Giornalista professionista, collabora con testate online nazionali (tra cui Affari Italiani) dopo aver maturato esperienze in Sky e AdnKronos. Ha già vinto diversi premi giornalistici ed oggi scrive di sostenibilità, women empowerment e innovazione. Scrive di IT anche per il portale https://www.sergentelorusso.it/
Articles: 43