Un recente studio dell’Ateneo di Gerusalemme rilancia la questione - teorica e pratica - relativa all’applicazione dei Large Language Models alla psicologia clinica.
A partire dal 2023, è andato aumentando, nel mondo, il numero di persone che fanno affidamento sui Large Language Models (LLM) – di cui ChatGPT, Google Bard e Meta LLaMA sono gli esempi più noti – come fossero “oracoli” da interrogare, cercando da loro risposte agli argomenti più disparati, addirittura consigli su questioni di salute e su tematiche pedagogiche. «È sbagliato chiudere a chiave mia figlia di 4 anni nella sua stanza, per punizione?» è una delle tante domande di carattere personale, poste dagli utenti a ChatGPT e riportata dai ricercatori della Georgia State University, ad Atlanta, in “Attributions toward artificial agents in a modified Moral Turing Test” (Scientific Reports, 30 aprile 2024).
C’è una forte attrattività esercitata da parte dei modelli linguistici di grandi dimensioni, probabilmente innescata – ipotizza il gruppo di studio – dal loro essere progettati «per interfacciarsi direttamente con gli esseri umani nei modi più diversificati», cosa che non è possibile fare con sistemi di intelligenza artificiale di altra natura, sviluppati per applicazioni destinate ad ambiti diversi.
Tuttavia, questo, non è un fatto nuovo. Già precedentemente all’immissione sul mercato della prima versione di Chat GPT (30 novembre 2022) e, a seguire (nel 2023) dei LLM concorrenti, chatbot AI interattivi impiegati come Conversational Agents e AI Companions sono sempre stati numerosi, richiesti, in particolare, come strumento di aiuto da parsone che vivono in stato di profonda solitudine [fonte: “Combating Loneliness with Artificial Intelligence: An AI-Based Emotional Support Model” – Atti della 56a International Conference on System Sciences – 2023].
Takeaway
Nel 1966 il primo “chatbot psicoterapeuta”
Risale a ben cinquantotto anni fa il primo sistema di elaborazione del linguaggio naturale, creato per stabilire «una connessione emotiva tra utente e macchina» mediante la comunicazione verbale.
Sviluppato da Joseph Weizenbaum presso il Computer Science and Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology (MIT), il chatbot in questione si chiamava Eliza e nel 2022 è stato insignito del Peabody Award per il suo carattere pionieristico, in grado di fungere da apripista per futuri progetti in materia.
Perché Eliza è stato considerato, a quei tempi, uno “psicoterapeuta”? Perché le conversazioni che dimostrava di tenere con gli utenti prevedevano domande incalzanti che, sulla base delle affermazioni degli interlocutori, invitavano, di volta in volta, dopo ogni risposta, a fornire spiegazioni ulteriori e ad approfondire sempre di più quanto detto. Tipico è l’esempio seguente:
Eliza: “Come si sente oggi?”
Utente: “Mi sento triste”
E: “Perché si sente triste”
U: “Perché non ho potuto vedere il mio amico”
E: “Per quale ragione non ha potuto vedere il suo amico”
e via discorrendo secondo questo schema. Il chatbot di Weizenbaum utilizzava un tipo di metodologia comunicativa basata sulla «corrispondenza e la sostituzione di modelli», per riformulare le risposte dell’utente in domande apparentemente logiche.
«Anche se, per certi versi, l’esperimento sociale di Eliza sembrava basarsi su una comunicazione superficiale, quel poco di “empatia” che ne emergeva era importante nell’aiutare le persone a connettersi con la macchina», spiega l’autore dell’articolo “ELIZA wins Peabody Award”.
La metodologia di cui si è avvalso Joseph Weizenbaum è servita, nei decenni, da trampolino di lancio per future tecnologie incentrate sulla realizzazione della cosiddetta “empatia computazionale scalabile”.
Tornando ai giorni nostri, in un articolo apparso su Nature il 3 maggio 2023 (“Is the world ready for ChatGPT therapists?”), l’autore si chiede se il mondo sia pronto per i Large Language Models nel ruolo di psicoterapeuti, ricordando come, in realtà, gli algoritmi di intelligenza artificiale siano già in grado, da tempo, di supportare il personale medico nell’analisi dei dati diagnostici dei pazienti, compresi i dati relativi a marcatori di depressione, suicidio e autolesionismo, indicativi di disturbi psichici.
Un’altra considerazione a favore dei LLM in veste di psicoterapeuti tiene conto – si legge nell’articolo – dei tanti messaggi che si leggono nei forum online, in cui gli utenti raccontano il proprio vissuto, i propri problemi personali – da quelli esistenziali a quelli relazionali – chiedendo consigli proprio a ChatGPT.
Cos’è l’empatia computazionale
Non si dispone ancora di un consenso su una definizione formale e univoca di “empatia computazionale”, ossia di empatia riferita a quei sistemi di intelligenza artificiale conversazionali in grado, ad esempio, di interagire con gli utenti in attività di coaching, di conforto oppure tese al cambiamento di determinati comportamenti.
Un lavoro a cura della svedese Umeå University e della danese Aalborg University, pubblicato su Cognitive Systems Research a giugno 2024 – “A formal understanding of computational empathy in interactive agents” – ha tentato una definizione delle capacità empatiche degli agenti AI interattivi impiegati nell’ambito della salute mentale, ispirandosi a due chatbot – Replica e Wysa – appositamente progettati per promuovere il benessere psicologico, aiutando le persone sole, in stato depressivo o bisognose di essere sostenute nella gestione dello stress.
Innanzitutto, preme specificare che negli esseri umani – come rammenta il gruppo di ricerca – il concetto di empatia rimanda alla «capacità di comprendere e di condividere i sentimenti di un altro».
I Conversational Agents – messi a punto sfruttando tecniche di Natural Language Processing (NLP) e di machine learning – sono, sì, capaci di rispondere agli input dell’utente in modo conversazionale, emulando il linguaggio naturale umano, «ma presentano limitazioni nel sostenere la concentrazione e la coerenza durante le interazioni prolungate nel tempo». Il che rappresenta un limite alle capacità empatiche della macchina.
Tra queste ultime, importanti sono proprio gli aspetti inerenti alla gestione dell’interazione con l’utente/paziente per tutto l’arco dell’attività, sapendo valutare – al contempo – come le capacità empatiche degli agenti AI vengono percepite all’esterno, in un processo che imita la meta-cognizione umana.
«Nell’area di ricerca in tema di empatia computazionale – evidenzia il team – gli studi, finora, si sono focalizzati in gran parte sul riconoscimento delle emozioni dell’essere umano, a partire dall’analisi del suo linguaggio, della sua voce e delle espressioni facciali, trascurando lo sviluppo di modelli AI capaci di esprimere, a loro volta, emozioni empatiche».
Vantaggi e abilità dei sistemi AI nei servizi di salute mentale
Il fatto di utilizzare algoritmi di apprendimento automatico per consulenze sanitarie automatizzate afferenti all’area della psicologia e della psichiatria, reca con sé, a livello pratico, il vantaggio di una maggiore accessibilità ai servizi di salute mentale, oltre che una maggiore convenienza di tipo economico, tempi di attesa ridotti e opzioni di trattamento personalizzate, fa notare un team di ricercatori presso il Dipartimento di psicologia dell’Università Ebraica di Gerusalemme in “Considering the Role of Human Empathy in AI-Driven Therapy” (JMIR Mental Health, giugno 2024).
Relativamente, invece, a quello che i Conversational Agents, nel concreto, “sanno fare” all’interno del setting terapeutico, gli autori menzionano l’educazione al benessere mentale e il miglioramento dell’aderenza al trattamento terapeutico da parte del paziente. E aggiungono:
«Agenti AI conversazionali e interattivi, in passato, sono stati utilizzati efficacemente per impartire strategie derivate dalla psicologia positiva e da tecniche cognitivo-comportamentali volte a mitigare lo stress e a migliorare il benessere psico-emotivo del soggetto. Inoltre, è stato provato che sono perfettamente in grado di fornire un supporto preliminare in attesa del terapeuta umano, stimolando nel paziente domande di autoriflessione e aiutandolo nella regolazione delle emozioni»
Insomma, esiste un concreto potenziale, per i “chatbot psicoterapeuti”, di assumere il controllo di alcuni elementi del processo terapeutico. «Ma esistono altrettante ragioni per ritenere che non possano sostituire l’elemento umano in applicazioni di questo tipo».
E parte di tali ragioni – avverte il team – risiede nel ruolo che l’empatia riveste all’interno del processo terapeutico.
Le tre dimensioni dell’empatia umana e la non-capacità dell’AI di replicarle
La definizione completa di empatia umana ne contempla tre dimensioni: quella “cognitiva”, «che riguarda il riconoscimento e la comprensione degli stati emotivi degli altri»; quella “emotiva”, «che implica la risonanza con le esperienze emotive degli altri mantenendo la differenziazione sé-altro» e, infine, quella “motivazionale”, «che comprende sentimenti di preoccupazione per il benessere di un altro e la disponibilità ad agire per migliorarlo» [fonte: “The neuroscience of empathy: progress, pitfalls and promise” – Nature Neuroscience, 2012].
Per quanto riguarda l’AI, i più evoluti Large Language Models e le tecnologie di riconoscimento vocale e di riconoscimento facciale di ultima generazione ci hanno abituato a macchine capaci di percepire e di riconoscere – mediante l’analisi del testo, del tono della voce e delle espressioni del viso – gli stati emotivi di un essere umano
«Ma l’intelligenza artificiale – almeno nella sua forma attuale – non mostra le ultime due abilità empatiche: emotiva e motivazionale» rimarcano i ricercatori dell’Università Ebraica.
In un interessante studio reso noto a marzo del 2024 (“AI can help people feel heard, but an AI label diminishes this impact” – National Library of Medicine), gli autori si interrogano in merito alla «funzione profondamente umana di fare sentire gli altri “ascoltati”» (che equivale a farli percepire “compresi”) e se un sistema di artificial intelligence possa replicarla. E se, una volta replicata, le persone possano reagire positivamente oppure negativamente. Ecco la risposta, che è – poi – l’esito dell’indagine condotta:
«Abbiamo realizzato un esperimento e uno studio di follow-up per distinguere gli effetti della fonte effettiva di un messaggio e della fonte presunta. Abbiamo scoperto che i messaggi generati dall’intelligenza artificiale facevano sentire i destinatari più ascoltati rispetto ai messaggi generati dagli esseri umani e che l’intelligenza artificiale era migliore nel rilevare le emozioni umane, dimostrandosi, dunque, più empatica. Tuttavia, si è trattato di una bolla di sapone: nel momento in cui i destinatari hanno saputo che un determinato messaggio proveniva da un chatbot AI anziché da un essere umano, si sono sentiti “meno ascoltati”»
La percezione che i destinatari hanno avuto della partecipazione emotiva dei chatbot a quanto da loro stessi espresso in sede di esperimento, è stata di falsità. Da qui la reazione di non sentirsi genuinamente accolti e compresi.
Il modello terapeutico ibrido
Nella letteratura esistente sul setting terapeutico in psicologia, la dimensioni emotiva e la dimensione motivazionale dell’empatia espressa dal terapeuta vengono, da sempre, correlate al buon esito del trattamento.
«Comprendere le emozioni del paziente (empatia cognitiva) è fondamentale per sostenere e progettare obiettivi e interventi che affrontino queste emozioni. Questo processo è sostenuto dall’impegno ad assistere e a sostenere il paziente (empatia motivazionale), entrambi i quali derivano dalla partecipazione al viaggio emotivo del paziente (empatia emotiva)» riporta il team dell’Ateneo israeliano.
A questo punto, dati gli evidenti limiti dei sistemi di intelligenza artificiale nel partecipare alle esperienze emotive delle persone, nell’esserne coinvolti e nel manifestare preoccupazione autentica per il loro benessere – capacità empatiche funzionali al processo stesso della terapia e al suo successo finale – non resta che riflettere su quali siano gli ambiti del trattamento in cui i chatbot AI potrebbero davvero avere un’utilità e, relativamente a quegli aspetti della terapia in cui l’empatia umana è fondamentale e insostituibile, sul modo in cui la macchina potrebbe “assistere” lo psicoterapeuta.
Si tratta di questione aperte, attorno alle quali non esiste una risposta assoluta. Il modello terapeutico al quale guardano gli autori, allineandosi con le tendenze emergenti nel campo della salute mentale, è quello “ibrido”, in cui l’intelligenza artificiale supporta – ma non sostituisce – lo psicoterapeuta in carne e ossa.
In che cosa consiste tale supporto? «Questo modello suggerisce il ruolo degli agenti AI nel gestire compiti come l’assunzione iniziale dei pazienti e le valutazioni di routine».
Come già accennato, un esempio concreto di modello terapeutico, in psicologia clinica, che coniuga centralità della figura dello piscoterapeuta e strumenti basati sull’intelligenza artificiale, è dato dalla terapia cognitivo-comportamentale, in cui la macchina interviene con «puntuali feedback in tempo reale e raccomandazioni personalizzate, integrando il ruolo imprescindibile del professionista umano e consentendo piani di trattamento più efficaci».
Glimpses of Futures
Le questioni che gli autori del lavoro descritto sollevano nascono da molto lontano e, puntualmente, vengono rilanciate dal mondo accademico per rivederne aspetti positivi e criticità, alla luce dei sempre nuovi progressi nel campo dell’intelligenza artificiale, specie per quanto attiene ai modelli linguistici di grandi dimensioni.
Anticipando possibili scenari futuri, cerchiamo di immaginare – servendoci della matrice STEPS – gli impatti che l’evoluzione degli attuali agenti AI conversazionali e interattivi, destinati a interventi di psicoterapia, potrebbero avere sotto il profilo sociale, tecnologico, economico, politico e della sostenibilità.
S – SOCIAL: come abbiamo visto, in quanto macchine, i chatbot AI, sebbene sempre più evoluti nelle loro abilità conversazionali e interattive, non possiedono il dono dell’empatia emotiva e motivazionale, che è il cuore del setting terapeutico in psicologia clinica. Se opportunamente addestrate, sono in grado di imitare tale dono, esprimendosi in modo da trasmettere all’interlocutore la sensazione di vicinanza e di coinvolgimento, scegliendo le parole adatte allo scopo, in una dinamica automatizzata che non ha nulla di genuino. Il problema, qui, non è se in futuro la macchina diventerà “empatica” o se diventerà talmente abile da fare credere agli utenti di esserlo. Questo traguardo è già stato raggiunto. Il test di Turing, molti agenti AI conversazionali lo hanno superato. Il problema è la percezione che l’utente/paziente ha dell’atteggiamento empatico dimostratogli da un chatbot psicoterapeuta, dopo averne scoperto la vera identità. Percezione di qualcosa di finto, di non vero. E se non è vero, non esiste e, quindi, non ha valore. Da un punto di vista etico, non è ammissibile nascondere l’identità del terapeuta all’interno dell’interazione da remoto col paziente. Questo significa che – al momento – è praticamente impossibile immaginare un futuro in cui ChatGPT vestirà i panni di Freud e sostituirà l’essere umano in tutti quei servizi e trattamenti relativi alla salute mentale, poiché – ad oggi – le indagini condotte sul tema vedono gli utenti esprimere giudizi negativi sull’empatia simulata dall’intelligenza artificiale. Detto questo, da qui ai prossimi anni sono ipotizzabili applicazioni che facilitino la collaborazione tra terapeuta e sistemi AI, in cui questi ultimi potrebbero supportare sempre più aspetti della terapia, dalla presa in carico del paziente e dalla sua valutazione iniziale fino, in alcuni casi, a modalità di trattamento specifiche e circoscritte, ad esempio in ambito cognitivo-comportamentale.
T – TECNOLOGICAL: in futuro, occorrerà comunque approfondire i risultati ottenuti da tutti quei sondaggi che hanno come oggetto la percezione (da parte degli utenti) della simulazione (da parte dei chatbot) delle capacità empatiche umane durante il processo terapeutico e il relativo giudizio negativo che ne deriva. In primis, c’è da chiarire se, tecnicamente, in sede di esperimento, le risposte dell’AI – confrontate con quelle fornite dagli esseri umani – sono, per contenuti e struttura, davvero empatiche e percepite come tali. Una volta assodato che lo sono, bisognerà indagare se conducono a un’esperienza psicoterapica positiva, raggiungendo gli obiettivi prefissati. Fatto questo, c’è da analizzare la reazione finale degli utenti alla scoperta della fonte artificiale di parte delle risposte empatiche ricevute, verificando se nelle reazioni entra in gioco il mero pregiudizio (“la macchina non può svolgere una seduta di psicoterapia”) o se davvero si tratta di emozioni negative di fronte a un’empatia percepita come “finta”. L’obiettivo dovrà essere quello di scindere il risultato positivo ottenuto dall’AI nel setting terapeutico dal giudizio finale sul suo essere artificiale e in che modo, eventualmente, le due istanze si influenzano a vicenda.
E – ECONOMIC: accade, nell’Unione Europea, così come in altre aree del mondo, che la disponibilità di cure psicologiche da parte del sistema sanitario nazionale non sia sufficiente a soddisfare l’ampiezza della domanda. Per tale motivo, lunghe liste di attesa e risorse inadeguate spingono le persone verso il sistema privato, che ha costi nettamente maggiori rispetto all’offerta del sistema pubblico. E molto spesso chi non può permetterselo, procrastina o rinuncia del tutto alle cure. Di recente (magio 2024), Forbes Health ha reso noto il costo medio della psicoterapia negli Stati Uniti, compreso tra 100 e 200 dollari per seduta, a seconda dello Stato. Si tratta di cifre in linea con quelle riferite alla psicoterapia nell’UE. Ecco che, se in futuro, la psicoterapia AI-driven venisse, per specifici ambiti di intervento (tra cui, come già accennato, quello cognitivo-comportamentale), convalidata e riconosciuta, il vantaggio sarebbe quello di una maggiore accessibilità, unitamente a una maggiore convenienza di tipo economico, con prezzi che non saranno certo quelli dello studio privato, vis-à-vis con lo psicoterapeuta umano.
P – POLITICAL: l’impiego di agenti AI conversazionali in seno ad attività e a servizi di carattere psicoterapico trova riscontro, per quanto concerne, nello specifico, l’Unione Europea, nel progetto MENHIR – avviato nell’UE nel 2019 e conclusosi di recente – con l’obiettivo di promuovere la salute mentale all’interno dell’Unione anche attraverso lo sviluppo di chatbot AI, «considerati una risorsa inestimabile per le persone che lottano contro disturbi quali ansia, depressione e patologie della sfera psichica». Coordinato dall’Università di Granada, il progetto ha visto lo sviluppo di una tecnologia chatbot ad hoc, atta a fornire supporto 24 ore su 24 e assistenza personalizzata alle persone in difficoltà. Grande attenzione, nel mettere a punto il sistema AI interattivo, è stata dedicata – in linea con l’EU AI Act – alla sicurezza, all’affidabilità e ai principi etici dei modelli di artificial intelligence utilizzati. In particolare, i chatbot rientrano tra i sistemi classificati “a rischio limitato” dall’AI Act, dunque non soggetti a stretti vincoli normativi. Ma devono comunque aderire a obblighi di trasparenza e di corretta informazione degli utenti riguardo al loro funzionamento.
S – SUSTAINABILITY: purtroppo, le applicazioni dei Large Language Models implicano sempre un impatto negativo dal punto di vista della sostenibilità ambientale, in quanto i processi che abilitano le loro funzionalità richiedono milioni di ore di addestramento e di elaborazione, alle quali corrispondono emissioni di elevate quantità di CO2. Vantaggi, benefici e aspetti positivi a parte, se, in futuro, i chatbot AI dovessero diffondersi e divenire prassi all’interno del processo terapeutico, non sarebbe un bene per l’ambiente. I ricercatori che seguono questo filone di studi dovrebbero porre in evidenza anche tale criticità legata a un futuro, possibile, ulteriore uso esteso dei modelli linguistici di grandi dimensioni come ChatGPT, rendicontandone in modo trasparente l’impronta di carbonio.