L’attivazione della memoria episodica nel modello computerizzato del cervello di un invertebrato, apre a una possibile futura intelligenza artificiale in grado di apprendere da sola dall’ambiente, adattiva e che non necessita di milioni di dati di addestramento.

La forte spinta evolutiva vissuta dalla generative AI negli ultimi anni, declinata nelle sue due espressioni più rappresentative e popolari (che maggiormente hanno fatto notizia), ChatGPT e DALL-E, ha riportato il focus sull’Artificial General Intelligence (AGI), ovvero sulla grande, forte, “generale” intelligenza artificiale in grado di replicare con ampia aderenza il funzionamento del cervello biologico e tutti i suoi processi cognitivi.

Gli analisti di McKinsey & Company avvertono che, nonostante i progressi compiuti dall’AI nell’ultimo decennio, non è ancora ora per un’intelligenza artificiale che superi il test di Turing, dando prova di sapere andare oltre gli algoritmi predittivi e di essere indistinguibile dall’intelligenza umana. Probabilmente ci vorranno ancora decenni o addirittura qualche secolo prima che si possa parlare di “intelligenza artificiale generale”. Tuttavia – aggiungono – siamo in cammino. Tra le capacità che l’AI deve poter padroneggiare prima di raggiungere il livello AGI, indicano una percezione visiva e uditiva eccellente, abilità motorie di elevato livello, elaborazione puntuale del linguaggio naturale, memorizzazione, problem solving, navigazione (con localizzazione e mappatura simultanee), creatività, competenze sociali e competenze emotive.

«Al contrario delle macchine di previsione come ChatGPT – commentano – capaci di prevedere, con un elevato grado di precisione, la risposta a una richiesta specifica perché sono state addestrate su enormi quantità di dati, gli strumenti AGI potrebbero presentare capacità cognitive ed emotive – come l’empatia – in competizione con quelle dell’essere umano. Potrebbero persino essere in grado di cogliere consapevolmente il significato di ciò che fanno» [fonte: “What is artificial general intelligence (AGI)?” – McKinsey & Company, 21 marzo 2024].

Ma proviamo, ora, a tracciare un quadro di sintesi dell’attività di ricerca nella direzione dell’Artificial General Intelligence, per capire a che punto siamo.


Un recente, inedito, studio a cura dell’University of Illinois Urbana-Champaign pone l’attenzione sui processi cognitivi legati alla memoria episodica, di cui gli attuali sistemi di intelligenza artificiale sono privi, così come lo sono tutti gli animali invertebrati.
I ricercatori dell’Ateneo americano, in particolare, hanno esplorato l’azione dei meccanismi di condizionamento nell’ambito della simulazione della rete neurale di una lumaca di mare, capaci di innescare l’apprendimento sequenziale e, dunque, la memoria episodica.
Il mondo del lavoro sarà tra quelli che per primi subiranno l’impatto negativo dato da future macchine che imparano facendo, che ricordano quello che fanno e che in qualsiasi reparto le metti, si adattano. CEO e AD di tutto il mondo – suggeriscono gli analisti di McKinsey & Company – dovrebbero, già da ora, iniziare a prepararsi alla transizione verso luoghi di lavoro ancora più automatizzati.

Metamemoria e multimodalità: gli esempi dalla ricerca internazionale

Tra i filoni di studio che fanno capo all’Artificial General Intelligence, quello volto a simulare l’attività del cervello umano integrando nella macchina i processi cognitivi che governano la capacità di memoria del passato, è tra i più interessanti.

Sull’argomento, è intervenuto un gruppo di ricercatori della Nagoya University, in Giappone, presentando, in “Evolution of metamemory based on self-reference to own memory in artificial neural network with neuromodulation” (Scientific Reports, 26 aprile 2022), un modello di rete neurale artificiale in grado di eseguire una serie di compiti afferenti alla sfera della metamemoria, ossia a quell’insieme di abilità alle quali attingere per ricordare ciò che si è imparato nel tempo e grazie al quale è possibile adattare il proprio comportamento all’ambiente.

Tutt’altra tematica quella affrontata da un team di scienziati della Renmin University of China, a Pechino, con l’obiettivo di superare il limite dato dallo sviluppo di una singola competenza cognitiva per ciascuna macchina che, ad oggi, caratterizza la maggior parte dei metodi di ricerca sull’intelligenza artificiale. Nel dettaglio, il team ha sviluppato un modello AI “di base” su larga scala, pre-addestrato per mezzo di una vasta mole di dati multimodali (per l’esattezza, 650 milioni di coppie immagine-testo), che può essere adattato per l’esecuzione di diversi compiti cognitivi.

Dalla batteria di esperimenti condotti per testare il modello su una varietà di compiti, è emersa la sua abilità nel trasferimento interdominio di quanto acquisito mediante l’apprendimento multimodale. In particolare – fanno notare gli autori – con tale approccio, il modello sembra acquisire capacità di immaginazione e di ragionamento [fonte “Towards artificial general intelligence via a multimodal foundation model” – Nature Communications, 22 giugno 2022].

Percezione di oggetti occlusi e locomozione umanoide in spazi aperti

Sulla percezione visiva delle macchine, la cui difficoltà maggiore sta nell’identificare gli oggetti troppo vicini tra loro, sovrapposti o inseriti all’interno di spazi affollati, si è, invece, focalizzato il lavoro descritto in “Persistent Homology Meets Object Unity: Object Recognition in Clutter”, a cura del Department of Mechanical Engineering presso l’University of Washington, a Seattle, reso pubblico sulla rivista scientifica IEEE Transactions on Robotics a dicembre 2023.

Nel tentativo di replicare il meccanismo cognitivo umano, per il quale gli elementi della scena non percepibili nella loro interezza vengono riconosciuti associando le caratteristiche che l’occhio riesce a cogliere (forma, colore, posizione) all’oggetto intero memorizzato attraverso l’esperienza, gli autori hanno messo a punto un sistema che, coniugando topologia computazionale e tecniche di apprendimento automatico, a partire dalla forma degli oggetti occlusi, crea rappresentazioni 3D di ciascuno di essi, dopodiché le classifica e, infine, le confronta con una libreria di rappresentazioni precedentemente memorizzate [per approfondimenti, consigliamo la lettura del nostro articolo “Robot di servizio in spazi affollati: nuovo approccio alle criticità poste dalla loro percezione visiva”].

Sempre in tema di intelligenza artificiale generale, è il lavoro di un gruppo di studio dell’University of California, a Berkeley, illustrato in “Real-world humanoid locomotion with reinforcement learning” (ScienceRobotics, 17 aprile 2024), che ha proposto un modello AI di Reinforcement Learning per il controllo della locomozione umanoide negli spazi aperti (e non nei laboratori di ricerca), testato su un robot umanoide a grandezza naturalesenza sistema di visione a bordo, sia tramite esperimenti indoor sia all’aperto, a contatto diretto con l’ambiente, in cui la macchina ha imitato la camminata umana e la sua andatura [per approfondimenti, rimandiamo alla lettura del nostro articolo “L’approccio del Reinforcement Learning al controllo della locomozione dei robot umanoidi sui terreni naturali”].

Focus sulla memoria episodica: cos’è e quali competenze cognitive abilita

Ritorna sui processi cognitivi legati alla memoria, il recente studio realizzato da un team dell’University of Illinois Urbana-Champaign, esposto in “Cognitive mapping and episodic memory emerge from simple associative learning rules” (Neurocomputing, numero cartaceo in uscita il 28 agosto 2024, in anteprima online), in cui, in particolare, l’attenzione è alla memoria episodica estesa all’intelligenza artificiale.

Secondo la definizione che ne dà l’American Psychological Association, la memoria episodica – nei mammiferi(compreso l’uomo) e, in generale, in tutti i vertebrati – rimanda alla codifica del contesto spazio-temporale di eventi ed esperienze del passato, supportata dall’area del cervello denominata “ippocampo”.

«Nell’ippocampo l’esperienza è rappresentata come una “mappa cognitiva” integrata, in cui gli eventi sono presentati come “oggetti” organizzati nel contesto e la memoria è depositata in sequenze episodiche di eventi nel tempo-spazio. Mediante la mappatura cognitiva degli oggetti organizzati nel contesto, la memoria episodica fornisce i substrati associativi per la consapevolezza del passato e il pensiero creativo divergente negli esseri umani, in altri mammiferi e negli uccelli»

spiegano gli autori. E proprio riguardo al mondo animale, in “The evolution of episodic memory”, a cura dell’University of California Irvine (Proceedings of the National Academy of Sciences – PNAS, 2013), viene posto in evidenza come «caratteristiche fondamentali della memoria episodica siano presenti nei mammiferi e negli uccelli e come le principali regioni cerebrali responsabili della memoria episodica negli esseri umani abbiano omologhi anatomici e funzionali in altre specie».

Gli attuali sistemi di intelligenza artificiale, non possedendo la memoria episodica dell’intelligenza umana, né le mappe cognitive da applicare per compiere generalizzazioni in molteplici ambienti e per compiti diversi, non sanno codificare i contesti spaziali e i contesti temporali relativi a eventi e a esperienze del passato.

Partendo dalla tesi in base alla quale, ad oggi, non abbiamo a disposizione algoritmi di artificial intelligence dotati di flessibilità e in grado di abilitare la gamma di attività sociali e creative riscontrate anche negli insetti più piccoli, i ricercatori dell’Ateneo dell’Illinois Urbana-Champaign hanno inteso esplorare come anche i più semplici meccanismi di condizionamento introdotti nell’ambito della simulazione del cervello di un animale della classe degli invertebrati (che, al contrario dei vertebrati, non possiedono la memoria episodica) possano innescare l’apprendimento sequenziale e, dunque, la memoria episodica. Vediamo in che modo.

Simulazione software della rete neurale di un invertebrato, con attivazione della memoria episodica

L’invertebrato in questione è la lumaca di mare Pleurobranchaea californica, grande più o meno come un pompelmo e abitante dell’Oceano Pacifico, dove trascorre il tempo strisciando sul fondo alla ricerca di cibo.

In un precedente studio (“Implementing goal-directed foraging decisions of a simpler nervous system in simulation” – eNeuro, 2018), lo stesso gruppo di lavoro dell’University of Illinois Urbana-Champaign ha sondato il funzionamento del cervello di questo piccolo animale, composto solo da diverse migliaia di neuroni. Lo ha mappato per poi creare una simulazione software dei suoi circuiti neuronali deputati ai processi decisionali.

«Il suo cervello è piccolo e semplice. Eppure è capace di eseguire alcuni processi decisionali relativamente non banali ed è persino in grado di imparare dall’esperienza» osservano gli autori.

Più precisamente, il modello computerizzato della Pleurobranchaea (denominato Cyberslug, in italiano“lumaca cyber”) ha simulato la sua ricerca di prede per cibarsi, ossia tre diversi tipi di lumache più piccole: le Hermissenda, nutrienti e prive di difese naturali (quindi, il suo cibo preferito), le Flabelline, altrettanto nutrienti ma con spine tossiche (Cyberslug si avvicinerà a loro solo se molto affamata e in assenza di alternative) e, infine, un cibo finto (introdotto per l’esperimento) che emana un odore chimico simile a quello delle Flabellina, ma che è privo di spine tossiche.

Ebbene, dalle simulazioni è emerso che, con solo una manciata di neuroni, il modello Cyberslug ha imparato, tramite prove ed errori, a scegliere i cibi nutrienti rispetto a quelli nocivi. Compiendo scelte corrette, è stato in grado di utilizzare in modo ottimale le proprie risorse alimentari, acquisendo nutrimento sufficiente per sopravvivere ed evitando il più possibile i danni (spine tossiche e cibo finto, dal buon odore ma senza valore nutrizionale).

Schermate dell'ambiente e dell'interfaccia Cyberslug, in cui il modello computerizzato della Pleurobranchaea (arancione) incontra le sue prede Hermi (sfere verdi) e Flab (sfere rosse) e ne traccia il percorso inseguendole per nutrirsene (linee arancioni). Nel primo frame Cyberslug si sta orientando verso le prede, mentre in quello successivo è in modalità di allontanamento [credit: “Implementing goal-directed foraging decisions of a simpler nervous system in simulation” - dell’University of Illinois Urbana-Champaign - https://www.eneuro.org/content/5/1/ENEURO.0400-17.2018].
Schermate dell’ambiente e dell’interfaccia Cyberslug, in cui il modello computerizzato della Pleurobranchaea (arancione) incontra le sue prede Hermi (sfere verdi) e Flab (sfere rosse) e ne traccia il percorso inseguendole per nutrirsene (linee arancioni). Nel primo frame Cyberslug si sta orientando verso le prede, mentre in quello successivo è in modalità di allontanamento [credit: “Implementing goal-directed foraging decisions of a simpler nervous system in simulation” – dell’University of Illinois Urbana-Champaign – https://www.eneuro.org/content/5/1/ENEURO.0400-17.2018].

Introduzione dello schema di condizionamento basato su ricompensa

Tornando, invece, al lavoro del 2024, il team, ha integrato in Cyberslug un modulo computazionale per la memoria episodica, chiamato Feature Association Matrix (FAM), modellato sull’architettura e sulle funzioni dell’ippocampo del cervello umano che, come accennato, è un’area chiave per l’apprendimento e la memoria.

«Sebbene Cyberslug fosse in grado di imparare dall’esperienza, la memoria e la capacità di integrare le informazioni delle esperienze passate erano limitate»: questo il motivo dell’integrazione.

Nel nuovo studio, Cyberslug-FAM ha esplorato un nuovo ambiente simulato, con diversi percorsi da compiere, ad alcuni dei quali i ricercatori hanno associato dei premi-ricompensa.

Quello che è stato osservato è che, avvalendosi del modulo computazionale per la memoria episodica, il modello computerizzato della Pleurobranchaea ha elaborato delle mappe cognitive per apprendere il suo ambiente spaziale, grazie alle quali ha potuto memorizzare i percorsi più funzionali (premiati con ricompensa) alla ricerca di cibo nutriente e le scorciatoie per attraversare l’ambiente in modo più rapido ed efficiente, per sempre maggiori ricompense. «Questo è un esempio di ragionamento spaziale, con memorizzazione degli eventi»

Glimpses of Futures

La simulazione software del circuito neurale di una lumaca marina impegnata in semplici compiti di ricerca di cibo e di scelta dei percorsi più adatti a raggiungerlo, ha dato conferma di un approccio che, se convalidato mediante esperimenti più complessi, in futuro, potrebbe essere impiegato per sviluppare algoritmi di intelligenza artificiale avanzati, idonei ad abilitare macchine in grado di svolgere, in autonomia, una serie di compiti per mezzo di mappe cognitive che consentiranno loro di apprendere dall’ambiente e di memorizzare quanto appreso.

Proviamo ora ad anticipare possibili scenari futuri, analizzando – tramite la matrice STEPS – gli impatti, positivi e negativi, che l’evoluzione dell’approccio descritto potrebbe avere sotto più punti di vista.

S – SOCIAL: le prospettive future del lavoro illustrato sono indubbiamente affascinanti. Lasciano immaginare, da qui ai prossimi decenni, macchine che sapranno imparare continuamente dalla propria esperienza negli ambenti in cui si trovano a operare e che sapranno memorizzare tale esperienza, per poi eventualmente recuperarla, riviverla, comunicarla e utilizzarla, per apprendere nuovi modelli e politiche più efficaci per i propri compiti. È a questo scenario che potrebbe condurre la memoria episodica dell’intelligenza artificiale, rendendo il comportamento dei suoi agenti più simile a quello dell’essere umano e, in generale, dei mammiferi. Se pensiamo ai robot impegnati in operazioni di soccorso, a quelli impiegati in ambito ospedaliero e nell’assistenza ad anziani e a disabili – solo per citare le applicazioni più critiche e di maggior impatto sotto il profilo dell’interazione con l’essere umano – mettiamo meglio a fuoco il significato (e il valore) di una macchina che ha memoria di quello che ha fatto e che, in base a questo, sa agire, adattarsi e decidere nel presente.

T – TECHNOLOGICAL: l’approccio proposto dagli autori per un agente AI dotato di capacità di memoria episodica e di mappe cognitive, per concretizzarsi, necessiterà dello sviluppo di un’architettura che coniughi reti neurali artificiali e tecniche di archiviazione e recupero di ricordi episodici. Le competenze cognitive correlate alla memoria episodica, inoltre, per il fatto di consentire generalizzazioni in differenti ambienti e per compiti diversi, suggeriscono lo sviluppo di architetture di rete semplici che, a differenza delle reti neurali più profonde e complesse, non esigono grossi quantitativi di dati per il loro addestramento. Stiamo parlando di una futura intelligenza artificiale che apprenderà da sola dall’ambiente e che, dunque, richiederà soltanto un pre-addestramento di base. Ci si attende, da questa AI avanzata, che possa avere un impatto sui Large Language Models, migliorando, in particolare, le prestazioni di ChatGPT che, da “macchina di previsione”, la memoria episodica potrebbe trasformare in agente AI che impara conversando.

E – ECONOMIC: le zone d’ombra di un’intelligenza artificiale sempre più vicina all’intelligenza umana – come lo è quella che integra la memoria episodica – non sono affatto minime. Nel già citato articolo “What is artificial general intelligence (AGI)?” del 21 marzo 2024, gli analisti di McKinsey & Company, ribadendo che le tempistiche relative all’emergere dell’Artificial General Intelligence sono incerte, ricordano che «quando arriverà – e probabilmente arriverà, prima o poi – sarà un grosso problema per ogni aspetto della nostra vita, delle nostre attività e delle nostre società». Il mondo del lavoro sarà tra quelli che per primi, oltre a godere dei potenziali vantaggi, subiranno l’impatto negativo dato da macchine che imparano facendo, che ricordano quello che fanno e che in qualsiasi reparto le metti, si adattano. «I dirigenti di tutto il mondo possono iniziare a lavorare già da ora alla comprensione del fenomeno che porterà le macchine a raggiungere un’intelligenza di livello umano tale da portare alla transizione verso luoghi di lavoro ancora più automatizzati di quanto lo siamo oggi» è il consiglio di McKinsey & Company, avvalorato dalle previsioni del Forrester Job Forecast 2020-2040 che, analizzando le prospettive, da qui al 2040 di Paesi come Regno Unito, Germania, Francia, Italia e Spagna, stima la scomparsa di 12 milioni di posti di lavoro, con vendita al dettaglio, ristorazione e ospitalità i comparti più a rischio.

P – POLITICAL: in uno scenario futuro che potrebbe vedere un’AI dalle prestazioni sempre più simili a quelle del cervello biologico, si dovranno considerare con massima cura anche gli aspetti critici di tale fenomeno. Nel caso di futuri robot che apprendono autonomamente dall’ambiente in cui vengono inseriti e che ricordano le esperienze passate al punto da recuperarne i contenuti e utilizzarli per apprendere di nuovi, le preoccupazioni riguardano il loro livello di sicurezza, tenuto conto delle interazioni con chi li utilizza. In che modo si adattano all’ambiente? Che cosa apprendono? Chi controlla e supervisiona che cosa apprendono? E se apprendessero qualcosa di errato e di nocivo? Il pensiero corre immediatamente al mondo del lavoro. Ricordando il regolamento UE che ha sostituito la direttiva macchine 2006/42/CE – ossia il regolamento 2023/1230, pubblicato il 29 giugno 2023 e applicabile a partire dal 20 gennaio 2027 – è importante rimarcarne l’attenzione imposta ai produttori verso i nuovi componenti di sicurezza previsti e agli utenti verso i nuovi requisiti di protezione nell’ambito della collaborazione uomo-macchina, oltre alla corretta gestione dei robot all’interno delle aziende.

S – SUSTAINABILITY: positivo, dal punto di vista della sostenibilità ambientale, il fatto che futuri modelli di intelligenza artificiale provvisti di memoria episodica e di mappe cognitive, proprio perché apprendono dall’ambiente e dalle esperienze passate, non abbiano bisogno di migliaia di dati per il loro allenamento, riducendo, in questo modo, le ore dedicate all’addestramento degli algoritmi e all’elaborazione dei processi, alle quali corrispondono – di conseguenza – ridotte emissioni di CO2 e una ridotta impronta di carbonio, purtroppo due indicatori spesso a livelli elevati quando si fa riferimento alle tecniche di artificial intelligence e, più in generale, al mondo delle tecnologie digitali.

Scritto da: