I ricercatori della Stanford University hanno scoperto che i dati di soggetti provenienti da solo tre Stati USA allenano gli algoritmi di intelligenza artificiale utilizzati dalla maggior parte degli strumenti diagnostici americani. Trentaquattro Stati non sono affatto rappresentati e gli altri tredici hanno fornito dati limitati. Il che solleva interrogativi sulla reale efficacia di tali strumenti nell’effettuare indagini diagnostiche su tutti i pazienti degli Stati Uniti, non solo su una parte. E tiene accesi i riflettori sulla questione dei pregiudizi algoritmici della macchina e delle decisioni discriminatorie che ne derivano.

L’intelligenza artificiale, nei prossimi anni, è chiamata a sciogliere i nodi di una questione rimasta aperta da tempo: i pregiudizi algoritmici, dai quali derivano, poi, scelte e decisioni discriminatorie da parte della macchina, ad esempio nei confronti di un target di età specifico, di un’etnia, di un ceto socio-economico oppure, come nel caso di cui parlo in questo articolo, di intere aree geografiche di uno Stato.

Iniziamo col dire che se un sistema AI ha pregiudizi, è solo perché il suo algoritmo è viziato dal pregiudizio umano. Dipende tutto dalla qualità e dalla bontà dei dati che l’uomo trasferisce alla macchina. In estrema sintesi: se nel database inseriamo molte più immagini di uomini bianchi che di donne di colore, l’algoritmo diventerà molto più bravo a identificare gli uomini bianchi.

Questo non significa che, alla base, ci sia la volontà di creare un mostro. Ma che, nell’addestrare un algoritmo di artificial intelligence, dovremmo essere più consapevoli dei dati che gli trasferiamo, della loro correttezza, bontà e completezza. Dovremmo porci delle domande. Soprattutto quando il sistema AI è destinato ad applicazioni di medicina clinica. Vediamo perché.

Artificial intelligence, pregiudizi algoritmici e discriminazione geografica: lo studio dei ricercatori della Stanford University

Decenni fa, la ricerca clinica sperimentava le nuove terapie principalmente su soggetti di pelle bianca, nella convinzione che qualsiasi risultato dei test potesse essere applicato senza alcun problema a etnie diverse.

Ricerche successive – riportando esempi di terapie farmacologiche che sono risultate meno efficaci o che hanno causato maggiori effetti collaterali in quei soggetti appartenenti a etnie sottorappresentate nei gruppi sperimentali dei test clinici – hanno dimostrato che questa ipotesi era errata.

Nel tentativo di risolvere il problema delle discriminazioni geografiche nell’ambito delle sperimentazioni cliniche, negli anni ’90 i requisiti per la partecipazione alle ricerche in ambito medico-scientifico sono stati modificati, prevedendo la presenza di gruppi di etnie diverse fin dalle fasi iniziali.

Ma oggi, nel 2020, corriamo lo stesso rischio di discriminazione geografica. In che modo? Lavorando a progetti di ricerca che utilizzano algoritmi di intelligenza artificiale viziati dal pregiudizio umano.

A tale riguardo, Amit Kaushal, professore aggiunto di bioingegneria, Russ Altman, professore di bioingegneria, genetica, medicina e scienza dei dati biomedici, e Curt Langlotz, professore di radiologia e ricerca informatica biomedica – tutti dell’Università di Stanfordhanno esaminato cinque anni di progetti di ricerca da parte di studiosi statunitensi, nell’ambito dei quali sono stati sviluppati e allenati algoritmi di deep learning per applicazioni di diagnostica medica.

Tra quegli studi in cui è stato possibile risalire alla provenienza geografica dei soggetti coinvolti, è stato rilevato che la maggior parte (71%) dei ricercatori ha utilizzato dati di pazienti provenienti dalla California, dal Massachusetts e da New York per addestrare gli algoritmi. Trentaquattro Stati non sono stati affatto rappresentati, mentre gli altri tredici hanno fornito dati limitati.

Schema a blocchi con, al cento, la scritta “artificial intelligence”, composto da tanti cerchi collegati da linee e contenenti icone dell’intelligenza artificiale
L’artificial intelligence, nei prossimi anni, è chiamata a sciogliere i nodi di una questione rimasta aperta da tempo: i pregiudizi algoritmici, dai quali derivano scelte e decisioni discriminatorie da parte della macchina.

L’importanza della provenienza geografica dei dati che allenano algoritmi AI in medicina clinica

Dobbiamo capire l’impatto di questi pregiudizi algoritmici sui risultati di tali ricerche e se è necessario effettuare investimenti per rimuoverli” rimarca Altman, il quale è anche direttore associato dello Stanford Institute for Human-Centered Artificial Intelligence.

La provenienza geografia dei soggetti che partecipano ai progetti di ricerca medico-scientifica è correlata a una ricca quantità di dati relativi alla salute, tra cui stili di vita, alimentazione, esposizione a particolari condizioni meteorologiche, a seconda che si viva in un’area con rischi ambientali o alti livelli di sostanze chimiche tossiche.

Se specifici dati di soggetti che provengono da luoghi di un certo tipo venissero utilizzati per lo sviluppo di un algoritmo di diagnostica medica destinato a tutti i pazienti di un dato paese, si potrebbero causare danni anche gravi ai soggetti non inclusi nel campione della ricerca

sottolinea ancora Altman.

Dati limitati significa “visione limitata”:

Se ho accesso solo ai dati della California, del Massachusetts e di New York, posso sviluppare algoritmi per aiutare solo le persone che vivono in quei luoghi. Ma i problemi di salute di chi si trova in altre aree geografiche non saranno affatto il mio focus

ribadisce Amit Kaushal.

Servono set di dati ampi e diversificati per lo sviluppo di sistemi di artificial intelligence innovativi

L’Università di Stanford, più di qualsiasi altro centro, ha aperto la strada alla creazione di set di dati clinici liberamente disponibili per la scienza, spiega Curt Langlotz, il quale ricopre anche il ruolo di direttore dello Stanford Center for Artificial Intelligence in Medicine and Imaging.

Ma tutto questo è costoso e non è sufficiente. Sono necessarie risorse per aiutare i centri di tutto il paese a contribuire a set di dati più diversificati” rimarca.

L’opinione pubblica dovrebbe essere scettica in merito a sistemi AI in ambito medico addestrati da set limitati di dati. E le autorità dovrebbero vigilare sui metodi utilizzati per lo sviluppo di sistemi di artificial intelligence nel settore medicale.

La medicina ha già percorso questa strada in passato: i primi studi clinici non prendevano in considerazione la diversità di genere, razziale o geografica, né la consideravano arricchente per la ricerca stessa. E tanto c’è ancora da fare su questo fronte.

Poiché l’intelligenza artificiale è destinata a essere sempre più protagonista della medicina clinica, non dovremmo attendere altri 30 o 40 anni per risolvere il problema della creazione di set di dati ampi e diversificati” conclude Kaushal.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin