Un progetto europeo prova a ripensare radicalmente come si sviluppano le tecnologie per la salute cognitiva: niente sperimentazioni premature sui pazienti, coinvolgimento diretto dei clinici, attenzione costante a limiti, rischi e implicazioni sociali.

Entro il 2050 l’Europa avrà 152 milioni di over-65. Le malattie neurodegenerative stanno già crescendo e la demenza, che oggi colpisce oltre 10 milioni di europei, viene diagnosticata quando i margini d’azione sono minimi. L’intelligenza artificiale sta trasformando settori come oncologia e cardiologia, ma sul declino cognitivo la ricerca avanza più lentamente. Le ragioni non sono solo biologiche: riguardano soprattutto il modo in cui vengono progettati e testati gli strumenti tecnologici, e la loro compatibilità con dilemmi etici e sociali ancora irrisolti.

In questo vuoto si inserisce COMFORTage, progetto quadriennale finanziato da Horizon Europe, che riunisce 39 partner in 12 Paesi. Non punta a sviluppare un algoritmo predittivo più accurato degli altri: intende invertire le logiche di sviluppo dell’AI in ambito sanitario, ricomponendo una distanza strutturale tra laboratorio, clinica ed esperienza reale dei pazienti.


Validazione ribaltata: prima la pratica clinica reale, poi l’algoritmo. In questo modello l’ospedale entra nel laboratorio, non viceversa, e i medici diventano co-sviluppatori.
Predizione non neutrale: anticipare una patologia incurabile implica rischi psicologici, discriminazioni e medicalizzazione dell’invecchiamento. Per questo l’etica è integrata fin dalla progettazione.
Tecnologia con margini chiari: sensori e wearable generano dati utili, ma non affrontano determinanti sociali e ambientali della demenza. Il coinvolgimento di pazienti e caregiver serve a mantenere un quadro realistico dei limiti dell’innovazione.

Il cuore innovativo di COMFORTage è il processo di validazione, completamente invertito rispetto alla prassi: gli ingegneri non consegnano uno strumento ai clinici per testarlo, ma osservano come i medici lavorano sui pazienti seguendo i protocolli abituali. Solo a posteriori i clinici riesaminano gli stessi casi utilizzando gli algoritmi, confrontando i risultati della macchina con il proprio giudizio.

Abbiamo portato l’ospedale dentro il laboratorio di ricerca e sviluppo, non il contrario”, spiega Lorena Volpini, responsabile etica di CyberEthicsLab. “I clinici non sono beta-tester di un prodotto finito, ma co-sviluppatori fin dal primo giorno”.

L’obiettivo è ridurre il rischio che l’AI venga progettata in un contesto distante dalla complessità della pratica medica.

COMFORTage’s innovative framework - credits: https://comfortage.eu/information/
COMFORTage’s innovative framework – credits: https://comfortage.eu/information/

Accanto a questo approccio, il progetto raccoglie un volume significativo di dati: cartelle cliniche storiche, biobanche autorizzate, informazioni in tempo reale da wearable e sensori domestici (sonno, attività fisica, composizione corporea, abitudini). I partner conducono anche studi clinici su fattori di rischio modificabili, correlazioni meno esplorate (come deglutizione o igiene orale) e possibili interventi sullo stile di vita per rallentare l’esordio della malattia. Alcuni Paesi partecipano attraverso living lab, con sperimentazioni sul territorio.

È però sul terreno etico che il progetto apre il fronte più significativo. Predire una malattia incurabile non è una comunicazione neutra.

Stiamo medicalizzando l’invecchiamento”, osserva Volpini. “Senza un approccio rigoroso, il rischio è devastare psicologicamente persone sane, favorire discriminazioni assicurative o lavorative, e spostare l’attenzione dai determinanti sociali ai comportamenti individuali”.

Per tradurre questi problemi in requisiti operativi, COMFORTage adotta un ethics by design strutturato su più livelli. CyberEthicsLab supporta l’intero processo:
– definire consensi informati realmente comprensibili anche quando i pazienti non interagiscono direttamente con l’AI;
– trasformare principi generali (trasparenza, supervisione umana, non-discriminazione) in specifiche tecniche chiare: avvisi obbligatori, tracciabilità del percorso decisionale, possibilità per il clinico di sospendere l’algoritmo in ogni momento;
– produrre policy brief quando la questione non è tecnica ma sociale o normativa, ponendo domande che nessun codice può risolvere: chi comunica un rischio incurabile? dove finiscono i dati? chi vi accede e per quali scopi?

Un altro nodo riguarda il rischio di trasformare la persona con demenza in semplice “utente” di un dispositivo. Ridurre l’esperienza della malattia a metriche di interazione rischia di ignorare la complessità vissuta da malati, caregiver e famiglie.

La tecnologia può essere utile, ma non risolve solitudine, povertà, stress cronico o inquinamento”, nota Volpini. Per questo il progetto punta a coinvolgere associazioni di pazienti e caregiver in Grecia, Spagna e Italia, pur all’interno delle restrizioni etiche degli studi clinici. Il loro contributo permette di evidenziare limiti strutturali della tecnologia e di interrogare il paradigma stesso della prevenzione.
Perché concentrare l’attenzione quasi esclusivamente sullo stile di vita individuale quando molti fattori di rischio derivano da condizioni ambientali o socioeconomiche che la persona non può modificare da sola?

COMFORTage si concluderà nel 2027. È improbabile che produca nel breve periodo una soluzione pronta per il mercato. L’obiettivo non è accelerare, ma dimostrare che un altro modello di innovazione è possibile: più lento, più oneroso, ma potenzialmente più robusto e più accettabile per clinici, pazienti e società.

Serve una traduzione continua tra mondi che di solito non dialogano”, riconosce Volpini. L’alternativa, però, è nota: strumenti sofisticati che nessuno utilizza, scandali che erodono la fiducia pubblica, soluzioni tecnicamente valide ma clinicamente irrilevanti.

In un contesto dominato dal mantra “move fast and break things”, COMFORTage sceglie consapevolmente di non correre. Rallenta per evitare di compromettere ciò che conta di più: la fiducia delle persone e la responsabilità verso chi potrebbe essere toccato da una diagnosi irreversibile.
La domanda che il progetto lascia aperta non riguarda solo la possibilità tecnica di costruire un algoritmo, ma chiama in causa criteri più ampi: dovremmo farlo? In che modo? Insieme a chi?

Sono interrogativi che accompagnano ogni innovazione in ambito sanitario e che definiranno la sua legittimità, oltre che la sua utilità.

Scritto da: