Chatbot, tecniche di intelligenza artificiale e algoritmi spiegabili per individuare i traumi infantili

I ricercatori di medicina dell’Università di Tennesse hanno sviluppato un algoritmo in grado di individuare la presenza di traumi infantili. Il sistema sfrutta alcune tecniche di intelligenza artificiale e funziona come un chatbot: attraverso le domande giuste, riesce a individuare le cause dei disagi vissuti dai bambini.

TAKEAWAY

  • I traumi infantili non sono visibili come un braccio rotto, bisogna scavare a fondo e porre molte domande, per questo l’intelligenza artificiale può dare un importante contributo alla medicina.
  • Due ricercatori dell’Università di Tennesee hanno sviluppato un algoritmo in grado di individuare situazioni di disagio come la mancanza di una casa o una violenza subita.
  • Si tratta di un sistema di intelligenza artificiale “spiegabile”, senza cioè passaggi oscuri ma dal funzionamento trasparente e utilizzabile da tutti.
  • L’intelligenza artificiale si rivela decisiva per la medicina di base nell’individuare situazioni di difficoltà.

Quello tra intelligenza artificiale e medicina è un connubio sempre più stretto, non solo in ambito diagnostico ma può essere anche una sinergia utile al fine di individuare traumi mai raccontati dai pazienti, in particolar modo bambini. L’idea arriva dall’Oak Ridge National Laboratory, un centro di scienza e tecnologia gestito dall’Università del Tennessee e dal Dipartimento di Energia degli USA.

I ricercatori di medicina Enter Nariman Ammar e Arash Shaban-Nejad hanno sviluppato un algoritmo per supportare la cura di bambini che stanno vivendo situazioni difficili o adulti che hanno esperienze molto negative nella loro infanzia. Un trauma infantile non è visibile come ad esempio lo è un braccio rotto, ma può venire fuori solo attraverso una serie potenzialmente infinita di domande da parte dei medici. Il rischio è la mancata esternazione di esperienze negative vissute durante l’infanzia, con effetti negativi sul paziente anche in età adulta.

Traumi infantili: l’intelligenza artificiale può supportare la medicina nella scoperta di abusi e violenze

Se da un lato si conoscono le metodologie per risolvere determinate situazioni, dall’altro non si hanno le risorse adatte per arrivare ad una diagnosi, soprattutto quando si tratta di traumi infantili. Da questa necessità ha origine lo studio “Explainable Artificial Intelligence Recommendation System by Leveraging the Semantics of Adverse Childhood Experiences: Proof-of-Concept Prototype Developmen”, pubblicato sul  JMIR Medical Informatics, rivista di digital health.

La dicitura Adverse Childhood Experience, abbreviata dagli studiosi in ACE, indica traumi infantili, ossia esperienze infantili traumatiche, come abusi o violenze, che nei bambini possono avere impatti superiori a qualsiasi altro evento. L’intento della ricerca dell’Università di Tennessee è quello di suggerire, attraverso tecniche di intelligenza artificiale, interventi idonei prima che si verifichino effetti negativi tra cui anche la riduzione delle strutture cerebrali. Attraverso tecniche di neuroimaging, alcuni ricercatori dell’Università di Washington hanno infatti sperimentato come negli adolescenti con maggior numero di ACE alcune parti del cervello risultavano più piccoli, rispetto alla norma, sia l’ippocampo (responsabile della memoria a breve termine e dell’elaborazione dell’informazione) che l’amigdala (da cui derivano le emozioni e l’umore).

L’intelligenza artificiale spiegabile applicata alla medicina ed ai traumi infantili

L’algoritmo sviluppato dai ricercatori dell’Università di Tennesse funziona in maniera simile a un sistema di chatbot per assistenza tecnica. Il medico inserisce le informazioni del paziente, la macchina le elabora e cerca soluzioni adatte, attingendo a un vasto database di testi medici sulle ACE. La tecnologia permette così di ottenere consigli sugli interventi da svolgere. Ad esempio, se tra le informazioni c’è quella che nella casa del bambino manca l’acqua calda, allora si andrà ad ipotizzare un problema legato all’alloggio su cui possono innestarsi altre difficoltà. La serie di domande e risposte non consiste in una lista di controllo già stabilita e predefinita, ma la conversazione tra il medico e la macchina si svolge su un’interfaccia comunicativa che garantisce la massima trasparenza. Questo rende l’intelligenza artificiale “spiegabile” poiché rende accessibile anche ai non addetti ai lavori il modo di ragionare dell’algoritmo. L’explanaible AI è un metodo che permette di comprendere come l’algoritmo sia giunto a un determinato risultato, ottenendo un sistema fruibile da tutti e tracciabile in maniera efficace. “L’intelligenza artificiale spiegabile – si legge nello studio – è un approccio emergente per promuovere credibilità, responsabilità e fiducia in aree critiche come la medicina combinando approcci di apprendimento automatico con tecniche esplicative che mostrano quali sono i criteri di decisione e perché (o come) sono stati stabiliti”.

Intelligenza artificiale e medicina, le prospettive future

L’AI riesce con il minor numero di domande a individuare l’eventuale presenza di ACE, operando tra le infinite combinazioni possibili che, messe in atto da un essere umano, possono condurre fuori strada o portare a tempi molto lunghi prima di stabilire una diagnosi. A questo si unisce una capacità di pianificazione sugli interventi da svolgere che può contribuire a tirar fuori i bambini da ambienti per loro dannosi. La tecnologia può essere di grande aiuto soprattutto nella medicina di base supportandola nella sua funzione di indirizzamento dei pazienti verso esami e visite da svolgere.

“Lo sviluppo continuo del prototipo – concludono i ricercatori – richiede l’implementazione di un algoritmo di ottimizzazione delle raccomandazioni, incorporando un livello di privacy attraverso una libreria di salute personale e conducendo una sperimentazione clinica per valutare sia l’usabilità che l’utilità dell’implementazione. Questo prototipo di intelligenza artificiale spiegabile può migliorare la capacità degli operatori sanitari di fornire spiegazioni per le decisioni che prendono”.

Default image
Emanuele La Veglia
Giornalista professionista, collabora con testate online nazionali (tra cui Affari Italiani) dopo aver maturato esperienze in Sky e AdnKronos. Ha già vinto diversi premi giornalistici ed oggi scrive di sostenibilità, women empowerment e innovazione. Scrive di IT anche per il portale https://www.sergentelorusso.it/
Articles: 43