È in fase di test uno strumento, sviluppato dai ricercatori della Princeton University, che segnala in modo automatico potenziali pregiudizi in un set di immagini utilizzate per allenare algoritmi di computer vision.
La computer vision – o visione artificiale – è quel ramo dell’intelligenza artificiale dedito a riprodurre i processi e le funzioni proprie dell’apparato visivo umano. Rappresenta gli “occhi” dell’AI, la sua vista, in grado di acquisire, analizzare, elaborare dati e informazioni attraverso la percezione visiva.
I sistemi di computer vision, sfruttando i sensori ottici di telecamere o di altri dispositivi, effettuano riconoscimenti, rilevazioni e classificazioni di persone e di oggetti all’interno della scena ripresa e, tra le sfide, vi è anche la guida autonoma dei veicoli, che implica lo sviluppo di algoritmi di visione artificiale sempre più sofisticati e sempre più vicini alla capacità del cervello umano di decifrare, di “comprendere” l’ambiente circostante e di muoversi all’interno di questo.
Per conseguire tali traguardi, avvertono gli esperti del settore, è però necessario superare il problema della mancanza di eterogeneità in fase di studio degli algoritmi di artificial intelligence, che porta allo sviluppo di una tecnologia sbilanciata, incapace di rappresentare la realtà in modo globale, equo, senza stereotipi né discriminazioni.
Spiega Olga Russakovsky, professoressa di informatica presso il Visual AI Lab dell’Università di Princeton, nel New Jersey:
“Gli studiosi che si occupano di computer vision non possono trascurare le questioni relative alla parità di genere delle immagini con le quali addestrano gli algoritmi di riconoscimento, così come la corretta rappresentazione di tutte le aree geografiche e la rappresentazione completa – e non parziale – degli oggetti”
Uno dei nodi che l’intelligenza artificiale è chiamata a sciogliere nei prossimi anni è proprio quello dei pregiudizi algoritmici, responsabili di decisioni discriminatorie da parte della macchina, ad esempio nei confronti di un target di età, di un’etnia o di un ceto socio-economico.
Tenendo a mente che se un sistema AI ha pregiudizi, è solo perché il suo algoritmo è viziato dal pregiudizio umano e dalla tipologia e dalla qualità dei dati con i quali lo alleniamo, le immagini stereotipate contenute nei set di dati video che gli sviluppatori utilizzano per mettere a punto sistemi di visione artificiale, possono, involontariamente, influenzarne i modelli. Vediamo come.
Intelligenza artificiale e computer vision: è in fase di test uno strumento che rileva le immagini stereotipate
Un gruppo di ricercatori del Princeton Visual AI Lab dell’Università di Princeton ha sviluppato uno strumento in grado di rilevare automaticamente eventuali pregiudizi all’interno dei set di dati video utilizzati per allenare gli algoritmi di computer vision.
In particolare, tale strumento consente di correggere problemi di sottorappresentazione e di rappresentazioni stereotipate, intervenendo prima ancora che le immagini vengano utilizzate dagli sviluppatori.
La macchina in questione si chiama REVISE (REvealing VIsual biaSEs) e si serve di metodi statistici: il suo obiettivo è analizzare le immagini secondo tre macro categorie (oggetti rappresentati nelle immagini, genere delle persone ritratte e area geografica rappresentata) e analizzarne le correlazioni e gli incroci.
I pregiudizi relativi agli oggetti si riferiscono alle dimensioni, al contesto e alla diversità della rappresentazione degli oggetti all’interno delle immagini. A tale riguardo, il gruppo di studio dell’Università di Princeton è riuscito a fare emergere automaticamente una serie di caratteristiche che evidenziano modelli non rappresentativi o anomali nel set di dati.
Più nel dettaglio, in fase di test, è stato rilevato che oggetti come gli aerei, ad esempio, sono spesso rappresentati “molto grandi” nelle immagini utilizzate. E questo è dovuto al fatto che, nella maggioranza delle fotografie usate per allenare gli algoritmi di visione artificiale, gli aerei appaiono a terra, in primo piano, e non in fase di volo, quando invece apparirebbero come “piccoli oggetti” nel cielo.
Il modello “aereo grande a terra” non è rappresentativo della varietà di tale oggetto – rimarcano i ricercatori – e trasferisce un’immagine stereotipata all’algoritmo, che imparerà a decifrare come “aereo” solo quel tipo di scena.
AI e visione artificiale: la questione del pregiudizio di genere
Quella della rappresentazione stereotipata di persone di sesso diverso all’interno del set di dati video, è il nodo verso il quale si sta focalizzando in modo sempre più forte l’attenzione della comunità scientifica dell’AI.
In fase di sperimentazione, REVISE ha rilevato che quelle immagini in cui, ad esempio, sono presenti persone e fiori, mostrano una differenza di genere data dall’associazione fiori-uomini maggiormente presente all’interno di immagini riferite a cerimonie di premiazione o a riunioni, mentre l’associazione fiori-donne tende a essere maggiormente presente in quelle immagini riferite a opere d’arte e a design di interni.
Questo tipo di discrepanza non è di per sé grave. Lo è nel momento in cui la scelta di trasmettere all’algoritmo di visione artificiale questo tipo di dati è intenzionale, in quanto risponde a una convinzione da parte del team di sviluppatori.
Olga Russakovsky sottolinea che, rilevato tale pregiudizio di genere – per cui un uomo, con i fiori, viene premiato o ci crea l’ambiente della sua sala riunioni, mentre una donna, con i fiori, posa per un pittore o ci arreda il salotto di casa – spetta a chi sta addestrando l’algoritmo fermarsi, considerare il perché di tale scelta ed eventualmente intervenire per correggerla.
Infine, l’attenzione alla pluralità delle aree geografiche rappresentate all’interno delle immagini è divenuta, da qualche anno, più marcata. La sottorappresentazione di intere regioni nei set di immagini di computer vision rischia, infatti, di portare a pregiudizi negli algoritmi di intelligenza artificiale sviluppati. Sempre in fase di test, il team di Princeton ha scoperto che, per quanto riguarda l’area geografica rappresentata, gli Stati Uniti e le regioni europee sono ampiamente sovrarappresentati nei set di dati video analizzati, a discapito dei Paesi africani e asiatici.