Il tema delle disparità razziali non è nuovo quando si parla di intelligenza artificiale. Quest’ultima viene utilizzata in vari contesti sanitari, dall’analisi delle immagini mediche all’assistenza nelle procedure chirurgiche. Sebbene l’IA a volte possa superare i medici qualificati, le sue capacità non sono sempre messe al servizio della parità. Ad esempio, lo scorso anno, uno studio pubblicato su Lancet Digital Health, affermava che i modelli di intelligenza artificiale potrebbero prevedere con precisione la razza di un individuo in diversi tipi di immagini radiografiche, un compito non possibile per gli esperti umani. Un monito per coloro che, forse non del tutto a torto, pensano ad un futuro in cui i software, al di là di ciò che “vedono”, possano ottenere informazioni ulteriori sugli individui, per classificarli e realizzare modelli categorici senza il loro consenso. Uno scenario, quello paventato da Lancet, capace di esacerbare potenzialmente le disparità razziali in ambito medico.

Gli esempi di bias nell’elaborazione del linguaggio naturale sono infiniti. Gli scienziati del MIT, utilizzando un set di dati sia pubblici che privati, hanno confermato quanto sopra. Utilizzando i dati di imaging di radiografie del torace, radiografie degli arti, scansioni TC del torace e mammografie, il team ha addestrato un modello di apprendimento profondo per identificare la razza dei pazienti come bianca, nera o asiatica, anche se le immagini stesse non contenevano alcuna menzione esplicita sulla provenienza. Come ci ricorda un recente articolo di Science, l’IA può predire l’età e il sesso delle persone basandosi semplicemente sulla risposta degli ultrasuoni durante un esame cardiaco. Il battito varia di età in età, e in base al gender, dunque creare una forbice alquanto precisa di informazioni del genere è semplice, quasi banale per un software che lavora milioni di dati al minuto (e che non comprende affatto le implicazioni etiche delle disparità razziali). La questione non è tanto tecnica quanto etica: arriveremo, un giorno, a interfacciarci con un medico fatto di bit piuttosto che in carne e ossa che ci dirà come tirare avanti? Probabilmente si, ma le criticità, se così vogliamo definirle, vanno anche oltre.

Cluster (im)parziali accentuano disparità razziali

Una volta che una piattaforma di intelligenza artificiale avrà creato dei cluster, basati sulla razza, di pazienti della stessa fascia di età, sesso, estrazione sociale, cosa vieterà le compagnie assicurative di creare delle offerte ad-hoc, migliorative o peggiorative, a seconda dei casi? In sintesi: come si potranno evitare disparità razziali e sociali nel merito dell’healthcare, delle cure mediche, della previdenza?

«L’abilità dell’IA di predire le variabili sanitarie per una razza – spiegano James Zou, Judy Wawira Gichoya, Daniel E. Ho e Ziad Obermeyer su Science – partendo dalle immagini mediche può essere usata per creare disparità nel sistema sanitario».

I bias sono poi dietro l’angolo. Senza guardarci troppo indietro, basta pensare a quanto successo con il Covid. Le risonanze dei pazienti ricoverati per polmonite bilaterale mostravano i chiari segni della malattia sul loro corpo. Se un giorno dessimo tutte queste risultanze in pasto ad una IA, questa sarebbe in grado di creare delle categorie di soggetti più esposti al rischio di polmonite da Covid di altri. Tenendo in considerazione quali altre variabili? Se non si inserissero fattori apparentemente secondari come: fumo, problemi pregressi, familiarità, e altre metriche decisive, non ci sarebbe “intelligenza” che tenga ma solo un mucchio di informazioni catalogate alla buona. Predire qualcosa in base alla razza non è usare i dati nella loro forma olistica, con un occhio al particolare e uno al contesto in cui sono inseriti ma solo come mero “gioco” di aggregazione sistemica, con poco valore. Negli Stati Uniti, dove l’applicazione della tecnologia in ambito medico corre molto più veloce che da noi, qualcosa si muove, anche se lentamente, con il fine di regolamentare meglio le implicazioni dell’IA e contenere (ed evitare) disparità razziali ed altri pregiudizi ed iniquità.

Gli USA si muovono

I gruppi in difesa dei diritti civili hanno convinto la Casa Bianca ad aggiornare lo standard di segnalazione della razza che risaliva al 1997, in favore di una disaggregazione dei dati in base a sottogruppi (ad esempio, vietnamiti americani, asiatici americani). Potrebbero volerci anni prima che tale processo si materializzi nei dati sanitari e nel frattempo le imputazioni dell’IA potranno potenzialmente aumentare le disparità razziali tra sottogruppi granulari e più prossimi.

C’è da dire che, ad oggi, le variabili razziali non sono un elemento determinate in medicina. Ma potrebbero diventarlo, soprattutto quando strumenti come l’IA generativa diventano maggiormente disponibili al grande pubblico. Comprendere quali caratteristiche l’IA utilizza meccanicamente per prevedere le variabili di razza sarà allora importante per rendere i dati e gli algoritmi imparziali. Servirà anche l’impegno dell’uomo, che dovrà ridurre i pregiudizi nel modo in cui “usa” i dati che ha davanti in correlazione alla razza del paziente che ha di fronte. Un compito potenzialmente più impegnativo rispetto alla riduzione dei pregiudizi negli algoritmi stessi.

Scritto da:

Antonino Caffo

Giornalista Leggi articoli Guarda il profilo Linkedin