Da un team di ricerca tedesco, un approccio basato su ipotesi falsificabili nello sviluppo di una explainable AI in campo medico, per mezzo di una rete neurale che non solo classifica le immagini di campioni di tessuto istopatologico discernendo quelle che contengono tracce di tumore da quelle che ne sono prive (cosa che già accade), ma (ed è qui la novità) genera una mappa di attivazione delle immagini stesse, basata sull’ipotesi che questa corrisponda esattamente alle regioni tumorali rilevate nel campione.

Il compito della Explainable Artificial Intelligence o Explainable AI, disciplina che fa capo all’ambito di studi dell’apprendimento automatico, è rendere le tecniche di intelligenza artificiale e, più in particolare, le tecniche di machine learning, spiegabili, comprensibili a coloro le impiegano nei diversi campi, tra cui la medicina.

Un esempio del ruolo dell’explainable AI in campo medico è dato dall’interpretare con chiarezza i risultati dei processi di classificazione ottenuti dai modelli di apprendimento automatico, contribuendo in questo modo a rendere trasparenti le diagnosi e le decisioni terapeutiche formulate dai sistemi di intelligenza artificiale.

Il potere della classificazione basata sul machine learning è diventato particolarmente evidente nella diagnostica per immagini, comprendente – solo per citare gli esempi più significativi – dati video ricavati da radiografie, ecografie, TAC e risonanze magnetiche.

Tuttavia, esiste una questione nodale, relativa alla mancanza – da parte degli approcci esistenti – di una definizione chiara di ciò che costituisce, una “spiegazione valida” degli esiti dei processi di classificazione dell’AI in medicina (applicabile, per esempio, anche per gestire e superare i traumi infantili).

Fanno notare gli autori dello studio “A framework for falsifiable explanations of machine learning models with an application in computational pathology”, della Facoltà di biologia e biotecnologie, dei Dipartimenti di biofisica e di ematologia, oncologia e cure palliative e dell’Istituto di patologia della Ruhr-University Bochum, in Germania:

«Gli attuali metodi si fondano sull’utilizzo di una rete neurale già addestrata per mezzo di un ampio dataset di immagini diagnostiche. Rete alla quale viene somministrata un’immagine di input che, a sua volta, produce un output consistente in segmentazioni o in mappe che localizzano determinate aree degne di attenzione all’interno dell’immagine stessa, corrispondenti, ad esempio, a regioni tumorali o di altra natura. Ma questi stessi metodi, mentre “svelano” il risultato, non definiscono che cos’è che conduce alla loro spiegabilità e interpretabilità»

Insomma, «in ambito medico la nozione di interpretabilità dell’AI è mal definita», spiegano i ricercatori dell’Ateneo tedesco. E laddove sono stati compiuti sforzi e tentativi per giungere a un risultato apprezzabile, non è emerso alcun consenso unanime da parte della comunità scientifica, né in generale né specifico per l’analisi delle immagini diagnostiche mediante sistemi di apprendimento automatico.

Explainable AI in medicina: il superamento della contrapposizione tra logica induttiva e deduttiva

In realtà, la difficoltà nel fissare le linee dell’explainable AI in medicina deriverebbe «dagli approcci apparentemente dicotomici alla base, da un lato, del metodo scientifico proprio dell’ambito medico e, dall’altro, dell’apprendimento automatico».

Il metodo scientifico – ricordano gli autori – è, per definizione, “ipotesi-centrico”, in quanto segue il ragionamento ipotetico-deduttivo, «in cui le previsioni derivate da un’ipotesi generale e falsificabile vengono applicate a casi specifici che corroborano o falsificano l’ipotesi».

Esso segue il “principio di falsificabilità”, secondo il quale – in base alla definizione che ne dà Wikipedia – una teoria è scientifica solo se è in grado di suggerire quali esperimenti e osservazioni potrebbero dimostrarla falsa.

L’apprendimento automatico, al contrario, «deriva modelli generali da esempi specifici e, dunque, segue un ragionamento induttivo».

Nello studio citato, i ricercatori tedeschi descrivono la messa a punto di un framework per l’interpretazione dei risultati inerenti alle diagnosi e alle decisioni terapeutiche formulate dai modelli di machine learning, fondato su un’ipotesi falsificabile, peculiare – come accennato – del ragionamento deduttivo del metodo scientifico.

Il framework prevede un modello di machine learning il cui output produce, oltre a un risultato di classificazione, «un dominio interpretabile che viene esplicitamente dedotto durante la fase di addestramento del modello stesso». L’originalità di questo lavoro è tutta in tale passaggio.

L’ipotesi di partenza è formulata come una “connessione” tra il dominio interpretabile e il campione da cui sono stati ottenuti i dati di input.

In particolare, lo schema elaborato viene applicato in un contesto di analisi computazionale di immagini microscopiche a infrarossi di campioni di tessuto istopatologico del colon-retto appartenenti a pazienti affetti da patologie oncologiche, per l’esatta classificazione dei tumori e la loro localizzazione in immagini microscopiche. Ma andiamo in profondità per vedere di che cosa si tratta.

Schema che sintetizza il metodo definito dai ricercatori tedeschi per una Explainable Artificial Intelligence - con riferimento, in particolare, ai modelli di machine learning applicati alla diagnostica - in cui ragionamento induttivo e deduttivo si coniugano (Fonte: “A framework for falsifiable explanations of machine learning models with an application in computational pathology” - Ruhr-University Bochum, in Germania - https://www.sciencedirect.com/science/article/pii/S1361841522002286?via%3Dihub).
Schema che sintetizza il metodo definito dai ricercatori tedeschi per una Explainable Artificial Intelligence – con riferimento, in particolare, ai modelli di machine learning applicati alla diagnostica – in cui ragionamento induttivo e deduttivo si coniugano (Fonte: “A framework for falsifiable explanations of machine learning models with an application in computational pathology” – Ruhr-University Bochum, in Germania – https://www.sciencedirect.com/science/article/pii/S1361841522002286?via%3Dihub).

L’approccio basato su rete neurale di segmentazione comparativa

In tema di explainable AI in medicina, il team di studio ha sviluppato una rete neurale di segmentazione comparativa denominata CompSegNet, la cui attività – data un’immagine di input – consiste nella produzione di un “I-space” nell’immagine di output, attraverso una mappa di attivazione aggregata con la quale delimita una determinata area.

Il suo compito è facilitare la spiegabilità e l’interpretabilità (unite alla falsificabilità) di un classificatore AI deputato a distinguere, nel contesto di immagini microscopiche a infrarossi di campioni di tessuto istopatologico, quelle recanti segnali di cancro da quelle che ne sono prive.

«Applicata per distinguere i campioni cancerosi dai campioni privi di cancro, la funzione di CompSegNet mira a massimizzare l’attivazione aggregata nelle immagini etichettate come cancerose, riducendo al minimo l’attivazione aggregata nelle immagini etichettate come prive di cancro».

spiegano i ricercatori. In altre parole, CompSegNet supporta la localizzazione della massa tumorale e delle strutture associate.

Va sottolineato – proseguono – che l’I-space è il risultato di un processo induttivo e, quindi, formalmente non correlato al concetto di “tumore”. Il quale è, invece, «inconfondibilmente caratterizzabile su base molecolare, ossia scientifica. L’ipotesi di partenza, dunque, mette in relazione l’I-space ottenuto induttivamente con concetti epistemici della realtà molecolare».

La rete neurale messa a punto riceve in input una data immagine, in base alla quale produce la mappa di attivazione come variabile I-space, dalla qual viene poi calcolato l’output.

Explainable AI in medicina: l’applicazione della rete neurale CompSegNet

In tema di explainable AI in medicina, sviluppata la rete neurale CompSegNe, si è poi passati alla sua fase di test, impiegando un collettivo di 100 immagini microscopiche a infrarossi di campioni di tessuto istopatologico del colon-retto di pazienti con carcinoma e 100 immagini di campioni di tessuto privi di cancro, selezionati – a livello nazionale – coinvolgendo 188 centri di sperimentazione clinica in Germania.

I 100 campioni sono stati suddivisi – per ogni gruppo (cancro/senza cancro) – in 50% dati di addestramento, 25% dati di convalida e 25% dati di test indipendenti.

I risultati emersi dall’insieme delle batterie di test indicano, in generale, una buona correlazione tra le regioni delle immagini associate al tumore e l’I-space dedotto dalla rete, suggerendo, dunque, un buon livello di interpretabilità e di spiegabilità dell’AI, in quanto le ipotesi di partenza (aree del tumore nel campione) sono state soddisfatte (corrispondenza tra aree del tumore e mappe di attivazione).

Il concetto di I-space (mappa di attivazione aggregata con la quale viene delimitata una specifica area all’interno delle immagini) rimanda al «collegamento tra ipotesi e modello di apprendimento automatico».

Ciò che, però, gli autori dello studio sottolineano è che «né lo spazio di input né l’I-space sono limitati in alcun modo ai dati delle immagini e che il concetto di “ipotesi falsificabili” va oltre le impostazioni biomediche. Sebbene lo spazio di input sia costituito da un dato assetto sperimentale, l’unico vincolo sull’I-space è che deve connettersi all’ipotesi che costituisce l’interpretazione effettiva».

Linee future di ricerca

In tema di explainable AI in medicina, sebbene la ricerca del team tedesco prenda in esame immagini microscopiche a infrarossi di campioni di tessuto istopatologico, l’approccio rappresentato dalla rete neurale CompSegNet è valido per una varietà di immagini diagnostiche.

L’approccio CompSegNet – precisano i ricercatori – intende fissare un metodo, ma non ha la pretesa di essere esaustivo per quanto concerne i dati utilizzati.

Mira a superare i modelli di machine learning che eseguono l’analisi e l’incrocio dei dati a posteriori, compiendo un passo in avanti verso modelli spiegabili e interpretabili, «anche se certamente lontani dall’esserlo completamente».

Combinato col concetto di “spiegazioni falsificabili” tipico della scienza, questo metodo fornisce un quadro di riferimento per una explainable AI in ambito medico basata sulle ipotesi.

E in futuro, proseguendo sulla scia dei primi risultati raggiunti con questo lavoro, si potrebbero gettare le basi per lo sviluppo di un’IA affidabile nell’ambito della ricerca di nuovi marcatori tumorali, ad esempio finalizzata a distinguere tra determinati sottotipi tumorali rilevanti per una specifica terapia e quelli che, al contrario, non lo sono e a spiegare la decisione che vi sta alla base.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin