Il recente lavoro del Politecnico di Losanna propone un approccio basato su reti neurali artificiali per ottimizzare l’elaborazione delle immagini nell’ambito delle protesi retiniche.
Parlare di protesi retinica e di immagini artificiali rimanda all’ambito di ricerca della neuroingegneria, che applica tecniche e metodologie afferenti all’ingegneria per studiare le funzioni del sistema nervoso centrale e periferico (compreso, dunque, il sistema visivo), nonché per sviluppare soluzioni volte a riparare o a sostituire quelle danneggiate, impiegando – appunto – anche dispositivi artificiali come sistemi robotici o protesi [fonte: “Neuromodulation” – ScienceDirect].
Da sempre, una delle sfide della neuroingegneria riguarda proprio le protesi sensoriali e, più nello specifico, «la costruzione del processo noto come “codifica sensoriale artificiale”, che ricopre un ruolo cruciale in quelle protesi atte a ripristinare la percezione sensoriale nei pazienti con disabilità», come osserva il team di scienziati dell’École Polytechnique Fédérale de Losanna (EPFL), in “An actor-model framework for visual sensory encoding”, studio pubblicato su Nature Communications il 27 gennaio 2024. La difficoltà maggiore – spiegano i ricercatori dell’Ateneo svizzero – sta nel «determinare l’input artificiale adeguato a un sistema sensoriale deputato a riprodurre la percezione desiderata». Ma andiamo più in profondità, facendo un piccolo passo indietro.
Takeaway
Che cosa è la codifica sensoriale artificiale
Nell’essere umano, gli organi di senso come la vista, l’udito o il tatto ricevono informazioni (input) dall’ambiente esterno e le traducono in “segnali neuronali” che vengono elaborati dal cervello, in un processo che prende il nome di “codifica sensoriale”.
Nelle protesi sensoriali – tra cui la protesi retinica e la protesi acustica, solo per citare gli esempi più noti – gli input provengono da sensori e non dall’ambente e vengono convertiti in «parametri di stimolazione artificiale», in modo tale da sostituire la codifica sensoriale naturale con la codifica artificiale.
In tali protesi, però – ricorda il team del Politecnico di Losanna – «l’intervallo di input è molto più breve rispetto ai sistemi sensoriali biologici. Ad esempio, il numero di elettrodi nelle neuroprotesi è solitamente di diversi ordini di grandezza inferiore al numero di neuroni sensoriali. Pertanto, la codifica sensoriale artificiale è una forma di riduzione della dimensionalità».
Che cosa significa? Che le informazioni ad alta dimensione provenienti dai sensori della protesi vengono ridotte a pochi parametri di stimolazione, affinché pochi elettrodi possano trasmettere le informazioni in un formato che il cervello umano sia davvero in grado di comprendere e di codificare.
Il gruppo di lavoro, a tale proposito, cita l’esempio della codifica uditiva nelle protesi acustiche, dove il suono viene convertito in stimolazione elettrica di alcune regioni di frequenza all’interno del nervo uditivo, consentendo a chi è affetto da sordità di percepire i suoni. Allo stesso modo, le protesi degli arti forniscono agli amputati un feedback tattile per migliorare la destrezza manuale.
Protesi retinica e codifica delle immagini artificiali: le difficoltà nel riprodurre il funzionamento della retina biologica
La codifica sensoriale artificiale ha un compito cardine anche nella protesi retinica, trasmutando le immagini ad alta risoluzione riprese da una telecamera esterna «in un modello spazio-temporale di stimoli artificiali». Specifica, tuttavia, il team di studio:
«La codifica visiva delle immagini artificiali è fondamentale nel migliorare la percezione dei pazienti con patologie della retina, ma non è semplice. Nella retina, l’informazione fluisce da circa 120 milioni di fotorecettori a circa 1,2 milioni di cellule gangliari retiniche divise in diverse classi, che proiettano a diversi nuclei cerebrali, compreso il nucleo genicolato laterale, e quindi alle aree visive, dove avviene un’ulteriore elaborazione delle immagini. La complessità del processo di informazione visiva richiede, pertanto, strategie di codifica avanzate, per garantire un’efficace stimolazione dei neuroni visivi e portare a un’utile visione artificiale»
Questo per dire che la retina non è affatto una semplice “telecamera” (e non può essere sostituita da questa), ma svolge una funzione dai meccanismi intricati e non lineari nell’elaborazione degli stimoli visivi. E riprodurla non è un lavoro agile.
«Le prestazioni del meccanismo di elaborazione visiva incorporato nelle protesi retiniche dipendono dalla piena comprensione del funzionamento della retina, oltre che dall’evoluzione dei modelli di visione artificiale» avvertono gli autori di una ricerca resa pubblica sul Journal of Neural Engineering – “Artificial intelligence techniques for retinal prostheses: a comprehensive review and future direction” – nel febbraio 2023. Vediamo in che modo tali prestazioni possono essere ottenute.
Il sistema protesico retinico Argus II
Finora, la protesi retinica più impiantata, concepita esclusivamente per il trattamento dei casi gravi di retinite pigmentosa e approvata dall’americana Food and Drug Administration (2013), rimane Argus II, frutto del lavoro dello scienziato americano Mark Humayun, il quale l’ha sviluppata su invenzione dell’ingegnere Robert Greenberg.
Fino a gennaio del 2021, i modelli impiantati erano 300 in tutto il mondo, di cui 55 in Italia [fonte: Saint Camillus International University of Health and Medical Sciences – UniCamillus]. Si tratta degli ultimi dati disponibili. Infatti, il 15 febbraio 2022, un articolo apparso su IEEE Spectrum – “Their bionic eyes are now obsolete and unsupported” – avvisa della cessata produzione di Argus II e, addirittura, della cessata assistenza ai pazienti che ancora indossano il dispositivo.
Dal punto di vista tecnico, questo sistema protesico è stato ideato per sostituire – al centro della retina, proprio sulla macula – la funzione dei fotorecettori degenerati in seguito alla retinite pigmentosa.
Il suo funzionamento prevede l’impiego di una micro-telecamera collegata a un paio di occhiali a visiera, le cui immagini vengono convertite dal sistema in una serie di impulsi elettrici che, dal nervo ottico, giungono nell’area visiva del cervello.
Il modello visivo che è in grado di ricreare è parziale, fatto di zone di luci e ombre, le quali, però, aiutano i pazienti a individuare ostacoli, a riconoscere le strisce pedonali e a distinguere la sagoma delle persone [fonte: “Argus II: The ‘Bionic Eye’ An Incredible Breakthrough for People with Retinitis Pigmentosa” – American Academy of Ophthalmology].
Protesi retinica e immagini artificiali: nuovi approcci alla codifica sensoriale
In tema di protesi retinica, i ricercatori dell’École Polytechnique Fédérale di Losanna fanno notare come la maggior parte dei dispositivi progettati nell’ultimo decennio siano stati addestrati per codificare le immagini artificiali servendosi di tecniche assai semplici, tra cui – ad esempio – la media dei pixel.
Nello stesso Argus II – rimarcano – «la media dei pixel è stata utilizzata insieme ai filtri video, col fine di sottocampionare le immagini catturate dalla telecamera». In sostanza, il sistema protesico riduce il numero di pixel delle immagini da trasmettere comprimendole.
Studi più recenti, invece, hanno portato alla definizione di nuovi approcci alla codifica delle immagini artificiali, mediante la messa a punto di nuovi algoritmi di elaborazione, alcuni dei quali prevedono il rilevamento di oggetti all’interno della scena, il rilevamento dei bordi e il metodo di “retargeting” (ossia di recupero) basato sul contenuto. Come illustrano gli autori:
«… in generale, tali metodi mirano a ridurre la complessità dell’immagine, evidenziandone solo i contenuti e le caratteristiche utili per chi indossa la protesi. Ad esempio, il rilevamento dei bordi è in grado di identificare una discontinuità della luminosità all’interno dell’’immagine, il che aiuta a individuare il contorno di un oggetto. Riducendo la quantità di informazioni, il paziente potrebbe percepire meglio l’ambiente. Tuttavia, nonostante i progressi, il potenziale di codifica di questi algoritmi è comunque limitato, in quanto essi non riescono ancora ad avvicinarsi pienamente alla riproduzione della complessità del sistema visivo umano, in cui l’elaborazione delle informazioni è data da un doppio passaggio: dai fotorecettori alle cellule gangliari retiniche»
Insomma, dal tramonto del modello Argus II, il processo di codifica delle immagini artificiali nelle protesi deputate a ripristinare la percezione visiva in quanti sono affetti da patologie della retina, sembra non riuscire a compiere ulteriori e decisivi passi avanti verso il modello della retina biologica.
Reti neurali convoluzionali nella codifica dell’informazione visiva artificiale
Il team del Politecnico di Losanna, nel suo lavoro in materia di protesi retinica e codifica delle immagini artificiali, ha optato per un approccio basato su rete neurale convoluzionale, una tipologia di rete neurale artificiale maggiormente impiegata nell’analisi dei dati video.
Il motivo di questa scelta – spiega – risiede nel potenziale delle Convolutional Neural Nertworks (CNN) applicato alla definizione di un modello retinale complesso, più vicino alle caratteristiche di quello biologico, migliorando, di conseguenza, la codifica visiva artificiale della protesi.
Nel dettaglio, lo studio ha previsto lo sviluppo di un algoritmo di apprendimento automatico per la messa a punto del “framework attore-modello” (“acor-model framework”) – così definito dagli autori – specificatamente progettato «per apprendere a sottocampionare le immagini» in base ai punti deboli relativi al contrasto, individuati nei dati video catturati dalla micro telecamera incorporata nella parte esterna della protesi retinica.
Per spiegare la funzione del framework, l’esempio riportato dai ricercatori proviene dall’utilizzo di Photoshop nel calibrare le parti chiare e le parti scure (il contrasto, appunto) all’interno delle immagini, al fine di renderle il più possibile fruibili dall’occhio umano: ecco che la CNN messa a punto, grazie a tale funzione, è capace di riprodurre una delle peculiarità dell’elaborazione retinica umana. In sintesi:
«Il framework agisce come un gemello digitale della retina artificiale. Quest’ultima viene prima addestrata a ricevere un’immagine ad alta risoluzione e ad emettere un codice neurale binario il più simile possibile al codice neurale generato da una retina biologica. Il framework attore-modello viene, quindi, addestrato a effettuare il sottocampionamento di un’immagine ad alta risoluzione, in grado di suscitare nella retina artificiale un codice neurale il più vicino possibile a quello prodotto dalla retina biologica in risposta all’immagine originale»
Avvalendosi di questo schema metodologico, il gruppo di lavoro ha testato le immagini sottocampionate dal proprio framework sia sul gemello digitale della retina artificiale che sulla retina espiantata da animale deceduto (sperimentazione ex vivo), dimostrando che l’approccio adottato è riuscito a produrre «immagini che suscitano una risposta neuronale più simile alla risposta dell’immagine originale rispetto a un’immagine generata da un approccio computazionale senza apprendimento come la media dei pixel».
Glimpses of Futures
In tema di protesi retinica e immagini artificiali, lo studio descritto presenta un approccio inedito alla codifica sensoriale, in cui le reti neurali artificiali e le tecniche di machine learning detengono un ruolo strategico.
Negli anni a venire, quello che i suoi autori si aspettano da questo approccio è sicuramente lo sviluppo di metodi di codifica delle immagini ancora più accurati ed efficaci. Anzi – a loro avviso – l’actor-model framework «potrebbe guidare le future strategie di codifica delle immagini artificiali per le protesi visive».
Ma – cosa ancora più importate – il suo impiego potrebbe interessare altri ambiti della codifica sensoriale artificiale, ad esempio in riferimento a protesi sensoriali come quella cocleare (per le persone audiolese) o quella degli arti.
Proviamo ora ad anticipare scenari futuri, analizzando – grazie alla matrice STEPS – gli impatti che l’evoluzione del framework descritto per la codifica delle immagini nelle protesi retiniche, potrebbe avere dal punto di vista sociale, tecnologico, economico, politico e della sostenibilità.
S – SOCIAL: in uno scenario futuro che potrebbe vedere l’actor-model framework convalidato da studi clinici, approvato a livello istituzionale e, quindi, applicabile alle protesi retiniche impiantabili sugli esseri umani (proprio come accadde, a partire dal 2013, col modello Argus II), il risultato sarebbe quello di una migliore percezione visiva da parte di pazienti affetti da gravi patologie della retina, consentendo loro di acquisire maggiore autonomia e sicurezza nella vita quotidiana.
T – TECHNOLOGICAL: l’evoluzione del metodo proposto dal Politecnico di Losanna, oltre che sullo sviluppo di una rete neurale artificiale ancora più profonda di quella adottata, in futuro potrebbe contare anche su tecniche più potenti per la compressione delle immagini, in modo che il sistema retinico artificiale possa elaborare più dimensioni visive contemporaneamente, proprio come accade nella retina biologica.
E – ECONOMIC: sotto il profilo economico, si apre una riflessione assai ampia, correlata al costo che aveva la protesi retinica Argus II, prodotta in USA (circa 150mila dollari, ossia circa 140mila euro, esclusi i costi dell’intervento chirurgico in anestesia totale e quelli relativi alla formazione per apprendere a usarla). In un futuro in cui immaginiamo le protesi retiniche impiantabili con, a bordo, l’actor-model framework, il sistema sanitario di ogni paese dovrà potersi fare carico di parte o di tutte le spese previste, specie nei casi in cui il livello socio-economico dei pazienti non consenta loro di affrontarle.
P – POLITICAL: l’impatto futuro, dal punto di vista politico, dato dall’evoluzione del framework per la codifica delle immagini nelle protesi retiniche, verterebbe sulla necessità, da parte delle Istituzioni di ogni Paese, di dotarsi di una normativa specifica sul tema, finalizzata a fissare – per i produttori – i requisiti di sicurezza, sotto il profilo della salute, dei sistemi retinici impiantabili.
S – SUSTAINABILITY: una protesi retinica come quella descritta dal team svizzero, destinata a chi ha la retina danneggiata da una malattia conclamata, dovrebbe essere disponibile e accessibile a tutti, a livello globale, e non essere un lusso di pochi per via dei costi complessivi. L’impatto negativo, per quanto riguarda la sostenibilità sociale, potrebbe, in futuro, essere proprio legato alla non equità di una prestazione sanitaria di tipo privato anziché pubblico.