Un inedito framework basato su tecniche di deep learning consente la colorazione, la segmentazione e la classificazione virtuale automatizzata delle immagini istologiche acquisite tramite microscopia fotoacustica senza etichetta.

L’anatomia patologica studia l’impatto della malattia sui tessuti dell’organismo umano, mettendo a fuoco quelle alterazioni in grado di guidare alla diagnosi e ai percorsi terapeutici più efficaci. Sebbene si tratti di una disciplina medica il cui ruolo è legato alla rilevazione di diversi stati patologici, come le malattie autoimmuni e le infezioni, la sua funzione è cardine soprattutto nell’identificazione e classificazione di numerose tipologie di tumori. Da non confondere con la “patologia clinica” (o “medicina di laboratorio”) che, invece, analizza il materiale biologico del paziente (sangue e altri fluidi), l’anatomia patologica ha a che vedere con l’istopatologia(analisi dei tessuti) e la citopatologia, ossia l’esame di cellule raccolte mediante raschiamento di tessuti o aspirazione di fluidi, di cui il pap-test è l’esempio più noto [fonte: Anatomical Pathology – Science Direct].

In particolare, l’istopatologia rimanda all’esame istologico, procedura basata sull’analisi microscopica delle cellule presenti nei frammenti di tessuto prelevati per mezzo della biopsia. Le immagini istologiche osservate al microscopio consentono di evidenziare la presenza di informazioni diagnostiche nei campioni asportati [fonte: National Library of Medicine]. Vediamo attraverso quali metodologie.


In anatomia patologica, le immagini istologiche evidenziano informazioni diagnostiche nei campioni di tessuto prelevate dal paziente, ma necessitano di procedure di colorazione complesse e costose, al fine di rendere visibili, durante l’esame al microscopio, le cellule trasparenti. E, nonostante le recenti innovazioni della microscopia fotoacustica senza etichetta, permangono limiti tecnici sotto il profilo della visualizzazione dei dati video.
Il recente lavoro a cura di un team della Pohang University of Science and Technology, nella Corea del Sud, promette di rendere possibile, grazie a una serie di tecniche di intelligenza artificiale, l’automatizzazione dei processi di elaborazione e analisi delle immagini istologiche acquisite con microscopia fotoacustica senza etichetta.
In futuro, l’evoluzione del metodo fondato sull’integrazione dell’intelligenza artificiale nella microscopia fotoacustica senza etichetta potrebbe tradursi non solo in diagnosi (specie quelle oncologiche) più rapide, ma anche più accurate e affidabili e, conseguentemente, in pianificazioni di trattamenti più efficaci.

Le tecniche di acquisizione delle immagini istologiche

Le cellule non presentano alcuna colorazione. Sono totalmente trasparenti, dunque, per renderle visibili durante l’esame istologico al microscopio, è necessario colorare i frammenti di tessuto. Le sostanze impiegate a tale scopo, ancora oggi, dopo un secolo di utilizzo, sono l’ematossilina e l’eosina, di origine vegetale la prima, di sintesi la seconda. Ad ogni modo, la bontà di questa metodologia, datata quanto, di per sé, efficace e tecnicamente semplice da attuare, risente delle tempistiche necessarie alla preparazione dei vetrini con i campioni di tessuto (che vanno poi colorati) e del tasso di imprecisione piuttosto elevato nel momento in cui vi fosse un disequilibrio tra il numero di vetrini prodotti e la quantità di campioni istologici prelevati dal paziente, responsabile – a sua volta – di diagnosi inesatte [fonte: Bancroft’s Theory and Practice of Histological Techniques– Elservier].

In epoca più recente, per fare fronte ai “punti deboli” dimostrati dall’istopatologia microscopica fondata sui vetrini – «… la quale soffre anche di un’elevata variabilità tra gli osservatori e di un modesto valore prognostico, a causa delle limitazioni del campionamento e dell’incapacità di visualizzare strutture tissutali e bersagli molecolari nel loro contesto 3D nativo» – nei laboratori di istologia hanno fatto il loro ingresso molteplici tecniche di microscopia ottica che, lo ricordiamo, consente di osservare un campione per mezzo di una lente di ingrandimento. Ad esempio, la “microscopia a foglio di luce” (light-sheet microscopy) «permette di acquisire rapidamente immagini di grandi dimensioni dei campioni, con sezionamento ottico intrinseco». Suo punto debole, il fatto di necessitare di «procedure chimiche aggiuntive quali la schiaritura ottica e la tintura a fluorescenza» [fonte: Light-sheet microscopy for slide-free non-destructive pathology of large clinical specimens – National Library of Medicine].

Restando sempre nell’ambito della microscopia ottica, tecniche di imaging istologico come la “microscopia in campo chiaro”, la “tomografia a coerenza ottica” e la “microscopia ad autofluorescenza” sono tutte in grado di fornire immagini istologiche tramite una preparazione del campione semplificata, senza colorazione. Tuttavia, «questi metodi risultano meno efficaci, rispetto alla colorazione con ematossilina ed eosina,nell’identificare biomolecole specifiche e, inoltre, hanno difficoltà nel restituire informazioni cliniche sufficienti» [fonte: Optical coherence tomography – Nature Reviews].

La microscopia fotoacustica

Parallelamente, sul fronte delle metodologie di imaging senza etichetta (cioè basate su informazioni intrinseche dei campioni biologici, con l’ausilio di approcci naturali e non distruttivi per la loro visualizzazione), sono stati proposti sistemi in grado di acquisire immagini istologiche selettive grazie a specifiche lunghezze d’onda. Tra questi, la microscopia all’ultravioletto profondo (Deep-UltraViolet microscopy – DUV) e la microscopia fotoacustica (PhotoAcoustic Microscopy – PAM), «utilizzano contrasti endogeni per visualizzare i singoliraggruppamenti di atomi presenti nelle molecole» [fonte: “An Ultraviolet-Transparent Ultrasound Transducer Enables High-Resolution Label-Free Photoacoustic Histopathology” – Laser & Phtonics Reviews].

In particolare, la microscopia fotoacustica è tra le modalità di imaging istologico più versatili, in quanto coniuga «il contrasto dell’assorbimento ottico con l’elevata risoluzione spaziale degli ultrasuoni, riuscendo così a penetrare in profondità nei tessuti» [fonte: “Switchable Acoustic and Optical Resolution Photoacoustic Microscopy for In VivoSmall-animal Blood Vasculature Imaging” – Bioengineering].

Nelle applicazioni cliniche, però, – osservano gli autori del lavoro descritto in “Deep learning-based virtual staining, segmentation, and classification in label-free photoacoustic histology of human specimens” (Light Science and Applications, settembre 2024) – le tecniche di microscopia fotoacustica senza etichetta «sono ancora lontane dal fornire immagini istologiche ad alta risoluzione a colori, paragonabili alle familiari immagini di vetrini interi, colorati con ematossilina ed eosina».

Per sciogliere questo nodo – secondo il team di ricerca della Pohang University of Science and Technology, nellaCorea del Sud, che ha curato lo studio citato – le immagini senza etichetta dovrebbero poter essere tradotte in «“immagini interpretabili”, tali da contenere informazioni sufficienti a emettere la diagnosi clinica». Ma in che modo?

Elaborazione di immagini istologiche senza etichetta supportata da tecniche di deep learning

I ricercatori coreani sono riusciti nel loro intento, integrando la pratica della microscopia fotoacustica senza etichetta con un modello di deep learning in grado di colorare, segmentare e classificare virtualmente le immagini dei tessuti umani prelevati mediante biopsia. Ma procediamo per gradi.

Quello della “colorazione virtuale” rappresenta il primo step, in cui immagini in bianco e nero, relative ai nuclei cellulari e al citoplasma all’interno dei tessuti, ottenute dalla microscopia fotoacustica senza etichetta, vengono trasformate in immagini che imitano le caratteristiche morfologiche rivelate da vari stili di colorazione istochimica.

Tuttavia – spiegano gli autori – i modelli di deep learning tradizionali sfruttano algoritmi di apprendimento supervisionato, i quali richiedono immagini accoppiate per il loro addestramento. Il che, nel caso di immagini istologiche, comporterebbe un processo di elaborazione piuttosto complesso.

Dunque, la soluzione è stata quella di utilizzare metodi non supervisionati – come, ad esempio, le Cycle Generative Adversarial Networks (o CycleGAN) – per addestrare una rete neurale convoluzionale a trasformare immagini istologiche in bianco e nero in immagini colorate, utilizzando set di dati non accoppiati.

La fase di “segmentazione” prevede, invece, che le immagini istologiche senza etichetta e i dati di colorazione virtuale vengano impiegati per identificare e isolare quelle caratteristiche del campione di tessuto inerenti «all’area cellulare, al conteggio delle cellule e alle distanze intercellulari».

Infine, «nella fase di “classificazione” – illustra il team – il framework messo a punto utilizza le immagini senza etichetta, le immagini di colorazione virtuale e i dati di segmentazione per classificare i tessuti in cancerosi oppure non cancerosi».

Focus sulle tecniche di colorazione virtuale

Tornando alle reti neurali CycleGAN – utilizzate per addestrare il modello AI a colorare virtualmente le immagini istologiche – il gruppo di ricerca fa notare un loro aspetto problematico, che emerge nel momento in cui le immagini afferenti a un determinato dominio (ad esempio, quello riguardante le dimensioni delle cellule) contengono più informazioni rispetto alle immagini appartenenti a un’altra sfera dell’istopatologia (ad esempio, il conteggio delle cellule). Ecco che, in questo caso, «le Cycle Generative Adversarial Networks potrebbero indurre il modello a compiere una ricostruzione imprecisa, non puntuale, dell’insieme delle immagini acquisite». E, d’altra parte – aggiungono – «avvalersi di due differenti generatori e di due distinti discriminatori per le immagini richiederebbe un consumo intensivo di memoria da parte del sistema, oltre che un consumo intensivo di tempo».

Per scongiurare questo rischio, gli autori hanno introdotto un secondo metodo di colorazione virtuale che sfrutta la tecnologia Contrastive Unpaired Translation (CUT), riuscendo, così, a massimizzare l’incrocio di informazioni tra le immagini istologiche in bianco e nero in ingresso (input) e quelle colorate in uscita (output).

La tecnologia CUT utilizza il cosiddetto ”apprendimento contrastivo” (contrastive learning), tecnica di intelligenza artificiale capace di addestrare la macchina a estrarre caratteristiche da tutte le immagini in input senza etichette, indipendentemente dal loro dominio. E lo fa calcolando le loro differenze (contrasti) e minimizzando la “perdita contrastiva”, cioè il risultato di tale calcolo.

Ma andiamo, ora, più in profondità, guardando al futuro progredire della soluzione AI descritta e alle sue ripercussioni su molteplici ambiti.

Glimpses of Futures

Il framework sviluppato dagli scienziati coreani, se implementato, testato e convalidato, rappresenterebbe un passo avanti significativo nell’istopatologia, che – come sappiamo – detiene un ruolo chiave nel rilevare la presenza di cellule tumorali all’interno dei frammenti di tessuto prelevati con biopsia.

Con l’obiettivo di anticipare possibili scenari futuri, proviamo ad analizzare – servendoci della matrice STEPS – gli impatti che l’evoluzione della metodologia proposta dalla Pohang University of Science and Technology dellaCorea del Sud per l’elaborazione di immagini istologiche acquisite ricorrendo alla microscopia fotoacustica senza etichetta, potrebbe avere sotto il profilo sociale, tecnologico, economico, politico e della sostenibilità.

S – SOCIAL: la prima, breve, sperimentazione del framework basato su deep learning per la colorazione, segmentazione e classificazione virtuali automatizzate di immagini istologiche prive di etichetta, ha avuto come oggetto l’analisi dei tessuti epatici di pazienti con diagnosi di cancro al fegato. L’esito – commenta il team – racconta di un’elevata precisione (attorno al 98%) nel distinguere tra cellule epatiche cancerose e non cancerose. In particolare, «il modello ha dimostrato una sensibilità del 100% quando valutato da tre patologi, rimarcandoneil potenziale per l’applicazione clinica». A tale riguardo, è fondamentale sottolineare come, nella microscopia fotoacustica senza etichetta di campioni umani, le immagini acquisite possano mostrare ai patologi, sì, elementi istologici, ma anche elementi relativamente meno familiari, fuorvianti, tali da rendere più complicata la diagnosi.In futuro, l’evoluzione del metodo fondato sull’integrazione della microscopia fotoacustica senza etichetta con l’intelligenza artificiale potrebbe tradursi non solo in diagnosi più rapide, ma anche più accurate e affidabili e, conseguentemente, in pianificazioni di trattamenti più efficaci per i pazienti.

T – TECHNOLOGICAL: dal punto di vista tecnologico, la futura evoluzione del framework contribuirà, nell’ambito dell’istopatologia su microscopia fotoacustica senza etichetta e, più in generale, dell’imaging diagnostico, a indagare ancora più in profondità l’annosa questione degli algoritmi di apprendimento automatico (e il deep learning è un segmento di studi di quest’ultimo) intesi quali “scatole nere” (black box), “non spiegabili” nelle loro modalità di funzionamento, in quanto il meccanismo che, dai dati in ingresso, conduce al loro output, non è trasparente. Se pensiamo all’impiego – da parte degli autori – delle Cycle Generative Adversarial Networks e, ancora, della Contrastive Unpaired Translation per la colorazione virtuale delle immagini in bianco e nero in ingresso (relative ai nuclei cellulari e al citoplasma all’interno dei tessuti prelevati), comprendiamo la portata del lavoro coreano nel rendere le tecniche di machine learning comprensibili, chiare a chi le utilizza, a supporto della Explainable Artificial Intelligence.

E – ECONOMIC: specie in oncologia, il valore clinico di un esame istopatologico di elevata sensibilità e precisione, oltre che rapido – grazie a un sistema di intelligenza artificiale che automatizza i processi di analisi delle immagini istologiche ottenute da microscopia fotoacustica senza etichetta – sta nel ridurre il numero di falsi positivi e nel consentire di passare, in tempi brevi, alla definizione della terapia, con impatti anche sui costi della diagnosi, che vanno abbassandosi in quanto questa viene resa più veloce e più efficiente. Aspetto – quello dei costi – di particolare rilevanza, se pensiamo alla spesa complessiva che, in particolare nei paesi occidentali, i singoli Sistemi sanitari devono sostenere per coprire diagnosi e cure relative al cancro. Per quanto riguarda, nello specifico, l’Italia, il CNEL – Consiglio Nazionale dell’Economia e del Lavoro riferisce di un esborso pari a 20 miliardi di euro, nel 2022, per sostenere i costi di esami (compresi quelli istologici), ospedalizzazioni e farmaci fruiti dai malati di tumore.

P – POLITICAL: in istopatologia, in casi di tumore, il fatto di poter contare su diagnosi più rapide e puntuali, significa riuscire a intervenire più tempestivamente sulla malattia, con maggiori possibilità di esiti positivi nel lungo periodo, in linea con la Raccomandazione del Consiglio europeo relativa al rafforzamento della prevenzione attraverso l’individuazione precoce dei tumori e col Piano europeo di lotta contro il cancro (European Beating Cancer Plan). Quest’ultimo, in particolare, ha disposto 4 miliardi di euro di finanziamenti con l’obiettivo di invertire la tendenza che, nel 2020, ha visto 2,7 milioni di diagnosi di cancro nell’UE e 1,3 milioni di decessi a causa di questa patologia. «A meno che non si intervenga ora con decisione, si prevede che i casi di cancro aumenteranno del 24% entro il 2035, diventando la principale causa di morte nell’Unione Europea». E il framework proposto dalla Pohang University of Science and Technology, qualora, in futuro, venisse convalidato e adottato come prassi, potrebbe supportare questo tipo di interventi a livello globale.

S – SUSTAINABILITY: sul fronte della sostenibilità sociale, una diagnosi sempre più tempestiva e accurata delle patologie oncologiche mediante l’esame delle immagini istologiche ottenute dalla microscopia fotoacustica senza etichetta dovrebbe, in futuro, essere prerogativa di tutti, di tutte le comunità di tutti i paesi del mondo, a maggior ragione se economicamente fragili e svantaggiati, nel rispetto del diritto di ognuno alla salute e alle cure necessarie, come ribadisce l’Organizzazione Mondiale della Sanità. Quando si tratta di salute, prevenzione e cure mediche, questo rimane un punto sempre molto critico, perché inevitabilmente legato a interessi economici dei paesi a reddito medio-alto. Una futura istopatologia evoluta, che abbraccia l’AI anche per quanto concerne i dati video raccolti con metodologie sezza etichetta (che prediligono approcci naturali, senza colorazioni manuali con sostanze chimiche), dovrà essere sostenuta da politiche più inclusive in fatto di diagnosi cliniche.

Scritto da: