Chip neuromorfici: quando l’informatica si ispira al cervello umano

I chip neuromorfici costituiscono un nuovo approccio dell’informatica, che si ispira all’incredibile efficienza computazionale del cervello umano per creare sistemi di calcolo capaci di supportare le applicazioni di Intelligenza Artificiale di prossima generazione.

TAKEAWAY

  • I chip neuromorfici promettono di emulare, dal punto di vista informatico, il comportamento del cervello umano, per supportare le applicazioni di Intelligenza Artificiale in maniera molto più efficiente rispetto a quanto avviene attualmente sui computer classici.
  • Il cervello biologico è incredibilmente efficiente in termini di capacità di calcolo e consumi di energia, ma la sua complessità rende ardua l’emulazione su un sistema hardware.
  • Il futuro prossimo vedrà, per i chip neuromorfici, una lunga e intensa stagione di ricerca e sviluppo, in attesa di capire se tali sistemi saranno ingegnerizzati per il mercato di massa o rimarranno una prerogativa di data center e supercomputer esclusivamente dedicati al mondo della ricerca scientifica e della sperimentazione industriale.

Tra i vari approcci alternativi all’informatica classica, in particolare nell’ultimo anno, si è sentito piuttosto spesso parlare dei chip neuromorfici. A differenza di altre tecnologie emergenti, che hanno goduto sin da subito di un clamoroso hype a livello mediatico, l’informatica neuromorfica è forse partita un po’ in sordina, ma non è detto che ciò costituisca necessariamente un male, vista la sorte ingloriosa che è toccata a molti tentatori della gloria prematura.

Tra le ragioni di questa prudenza mediatica c’è una complessità tecnologica molto elevata, al punto da rendere ardua anche la sua divulgazione, per via della varietà degli aspetti che coinvolgono l’informatica e le neuroscienze.

La storia dei chip neuromorfici sarà pur ancora tutta da capire e tutta da scrivere, ma le premesse sono più che mai stimolanti, per cui non ci resta che partire per un breve viaggio alla scoperta delle macchine che dovranno in qualche modo recepire il funzionamento di un organo straordinariamente complesso come il cervello umano.

Cosa sono i chip neuromorfici

I chip neuromorfici sono unità di calcolo che cercano di emulare, dal punto di vista informatico, il comportamento del cervello umano, con particolare riferimento alla sua rete di neuroni.

Per affrontare in maniera costruttiva le potenzialità dei chip neuromorfici, è in primo luogo importante non generare false aspettative. A differenza di quanto si prospetta, ad esempio, per l’informatica quantistica, l’informatica neuromorfica non nasce in prima istanza per fare cose diverse rispetto a quelle che sono già state concepite per le varie applicazioni dell’Intelligenza Artificiale. Si propone piuttosto di farle meglio.

L’obiettivo dei chip neuromorfici risiede nell’ispirarsi continuamente alla straordinaria efficienza del cervello umano, per raggiungere livelli di performance fino ad ora inimmaginabili ai fini di svolgere calcoli sempre più complessi con dei consumi francamente irrisori.

Come fa il nostro cervello ad elaborare una simile quantità di informazioni contemporaneamente? Come funziona? Come è possibile replicare questa potenza in un sistema informatico? Sono alcune tra le domande a cui l’informatica neuromorfica ha iniziato di cercare di dare delle risposte e di tradurre la teoria in pratica.

L’approccio neuromorfico: la ricerca del difficile punto di incontro tra tecnologia e biologia

Il cervello biologico rappresenta uno degli organi computazionali più efficienti finora conosciuti, data la quantità di cose che può fare in contemporanea e la quantità di informazioni che può acquisire da qualsiasi contesto in cui si trovi.

Per rendere l’idea, Intel ha presentato un efficace esempio che mette a confronto il cervello biologico di un simpatico pappagallo con il “cervello” di un drone autonomo di piccole dimensioni, che possiamo presumere costituisca l’attuale stato dell’arte di tale tecnologia.

Inutile dire che il risultato, al confronto, sia a dir poco impietoso. Il cervello del volatile pesa poco più di 2 grammi e consuma 50mW, vola a 35 km/h senza rischiare alcuna collisione, sa memorizzare e ripetere molte parole, oltre a manipolare oggetti semplici. Il drone ha un SoC (System-on-Chip) con CPU, GPU e memoria integrate che pesa 40 grammi e consuma 18000mW per viaggiare a 10 km/h senza apprendere nulla in volo: tutto ciò che fa, deriva da informazioni caricate in precedenza sul sistema.

Il cervello biologico, e in particolar modo quello umano, è dotato di una particolare caratteristica: laneuroplasticità, ossia la capacità di specializzarsi, organizzarsi e migliorare progressivamente, adattandosi al contesto grazie alla sua progressiva esperienza. Il cervello non nasce con una serie di istruzioni e un data set cui fare riferimento per prendere determinate decisioni, ma impara dal primo giorno in cui si trova al mondo ad apprendere dal contesto grazie alle informazioni che riceve dai sensi.

Il meccanismo è decisamente complesso e le neuroscienze non sono ancora state in grado di definire molti degli aspetti che regolano il funzionamento del cervello, a partire da come i neuroni comunichino in maniera così efficiente tra loro. La volontà di emulare la neuroplasticità di un cervello biologico e l’efficienza con cui questa viene resa operativa rappresentano, dunque, uno dei fondamenti dell’informatica neuromorfica.

L’informatica dei chip neuromorfici: nuove soluzioni, nuove architetture, nuovi linguaggi

Riuscire a tradurre in termini informatici i concetti biologici che caratterizzano il cervello umano è un’operazione estremamente complessa, sia dal punto di vista computazionale che dal punto di vista puramente funzionale. Per simulare queste proprietà è possibile partire da due alternative:

  • sviluppare un hardware simile al cervello umano
  • sfruttare le tecnologie attuali per simulare il cervello, in virtù della crescente capacità computazionale

Nessuno di questi due approcci, per quanto suggestivi, è al momento in grado di garantire una soluzione efficace. Nel primo caso, il gap computazionale degli attuali chip neuromorfici è troppo marcato per parlare di un’alternativa credibile. Un sistema all’avanguardia come il processore Intel Loihi 2 da poco presentato, può contare su 1 milione di neuroni artificiali, mentre il cervello umano dispone di circa 96 miliardi di neuroni, oltre a 1000 sinapsi che ne garantiscono le reciproche connessioni. Occorre, quindi, un deciso salto generazionale nella tecnologia che, come vedremo, potrebbe giungere dopo alcune tappe intermedie.

L’altra tipologia di approccio consiste nello sfruttare le tecnologie attuali per simulare il funzionamento del cervello, in virtù della crescente disponibilità computazionale. In questo caso si andrebbe incontro ai limiti dei sistemi di Deep Learning, la cui complessità combinatoria richiede enormi risorse computazionali per supportare il lavoro delle reti neurali.

I chip neuromorfici basano, quindi, il loro funzionamento su alcune soluzioni di compromesso, volte a superare i limiti dell’informatica classica basata sul sistema binario, per accedere a forme computazionali di ispirazione puramente analogica, proprio come avviene nei processi biologici.

Chip neuromorfici, dal sistema binario alla correlazione temporale del cervello umano

Mentre un cervello digitale si dimostra molto efficiente nello svolgere le operazioni per cui è stato programmato, il cervello biologico acquisisce continuamente una grande quantità di informazioni e le pesa in base alla loro importanza. I neuroni recepiscono informazioni dai sensi e iniziano a generare alcuni segnali, comunicando tra loro in vari modi.

Per fare un esempio molto semplice, quando noi guardiamo la televisione, gran parte della nostra attenzione si concentra sul contenuto delle trasmissioni, ma nel frattempo i nostri sensi, anche inconsapevolmente, acquisiscono anche altre informazioni, come l’ora indicata sull’orologio nella stessa stanza, la temperatura della stanza, il fatto che ci sia una bibita sul tavolo, il telefono che suona, il rumore di un’ambulanza per strada, e così via.

Grazie a un fenomeno definito come “correlazione temporale”, la trasmissione televisiva è in grado di generare l’attività neuronale più intensa in un determinato periodo, garantendosi il livello di priorità più elevato tra quelli disponibili. Tutto il resto viene posto in secondo piano. Ciò consente di garantire la piena comprensibilità di ciò che accade sullo schermo della TV, senza tuttavia eliminare la percezione di ciò che accade intorno.

Se, ad esempio, mi accorgessi che la stanza è troppo luminosa, potrei decidere di alzarmi per oscurarla e ottenere una visione migliore, così come prenderei il telecomando per alzare il volume della tv qualora il rumore proveniente dall’esterno tendesse a disturbare l’audio della trasmissione che sto seguendo.

La capacità di pesare in tempo reale i segnali ricevuti dall’ambiente costituisce, in prima istanza, un processo analogico, in quanto costituita da una pluralità di sfumature intermedie, molto complesse da descrivere con un computer classicobasato su logiche digitali che prevedono due soli stati: 0 e 1, acceso o spento.

Se per emulare le capacità di apprendimento della mente umana sono nate le varie branche dell’Intelligenza Artificiale, i chip neuromorfici si occupano più nello specifico di riprodurre nel migliore dei modi il funzionamento del cervello, con un modello di architettura che, lato hardware, rispecchia ciò che il Deep Learning cerca di riproporre grazie alle reti neurali profonde.

Dal tradizionale transistor al MemResistor: il componente di base dell’informatica “analogica”

Per produrre i chip neuromorfici è in primo luogo necessario abbandonare il modello dell’architettura di Von Neumann su cui si basa l’informatica classica, che esegue il calcolo binario grazie a unità che prevedono la separazione fisica e logica tra la CPU e la memoria del sistema. Al contrario, i chip neuromorfici prevedono una grande quantità di neuroni artificiali, costituiti da unità computazionali complete, dotate ognuna di CPU e memoria, evitando inutili dispersioni di risorse altrimenti dovute dal continuo trasferimento dei dati.

I componenti fondamentali di un chip tradizionale sono i transistor, che si attivano e si disattivano in base al flusso di corrente, definendo gli stati 0 e 1 del sistema di calcolo binario. Nel caso dei chip neuromorfici, l’equivalente è costituito dal MemResistor che, oltre all’accensione e allo spegnimento, è in grado di ricordare i vari stadi intermedi grazie al livello di intensità della corrente che lo ha attraversato.

Senza voler banalizzare ulteriormente tale concetto, ci basti sapere che la possibilità di definire molti stati consente al chip neuromorfico di descrivere gli aspetti analogici tipici del funzionamento di un cervello biologico. Oltre all’hardware, è necessario disporre di software basato sul neuromorphic computing, in genere applicazioni di Intelligenza Artificiale capaci di sfruttare appieno le proprietà dei chip neuromorfici.

Quando arriveranno i chip neuromorfici? Una roadmap (im)possibile

Nel momento in cui scriviamo, non sono ancora presenti sul mercato tecnologie neuromorfiche, in quanto l’evoluzione dei sistemi hardware e software basati su tale paradigma è attualmente in fase di piena ricerca e sviluppo. Intel, storico leader nell’ambito dell’industria dei microprocessori, pur nel contesto di una efficace campagna di marketing, ha dichiarato di non avere in previsione una commercializzazione per il nuovissimo chip neuromorfico Loihi 2, né per altre tecnologie di questo genere.

Nel generare aspettativa circa le potenzialità dei chip neuromorfici, Intel lascia intuire che la strada sarà molto lunga e soprattutto non si sbilancia nel dire se tali sistemi potranno essere oggetto di un’effettiva produzione di massa o rimarranno all’interno dei data center dei laboratori di ricerca scientifica e industriale.

Sul fronte orientale, Samsung sta svolgendo dei progetti di ricerca in collaborazione con l’Università di Harvard. Nel paper Neuromorphic electronics based on copying and pasting the brain recentemente pubblicato su Nature, un gruppo di ricerca guidato dal dottor Donhee Ham ha spiegato come non abbia molto senso insistere sul reverse engineering del cervello cercando di riprodurre in modo rigoroso le reti neuronali, in quanto si conosce ancora troppo poco del cervello stesso. In alternativa, viene proposto un metodo semplificato: un “copia e incolla” che prevede la copia della mappa funzionale di connettività sinaptica del cervello per incollarla su una rete di memoria a stato solido (non volatile).

Secondo il gruppo di ricerca di Samsung, il metodo “copia e incolla” potrebbe approssimare le qualità computazionali del cervello anche sugli attuali circuiti integrati al silicio, compresi il basso consumo energetico, l’apprendimento e l’adattamento al contesto, oltre a funzioni almeno elementari di autonomia e cognizione.

Viene tuttavia ben specificato come al momento questa proposta non abbia ancora un reale fondamento empirico, in quanto le risorse che sarebbero necessarie a un chip neuromorfico per mappare un cervello completo sarebbero nell’ordine di 100mila miliardi di memorie. Samsung dispone di un interessante modello caratterizzato da una rete 3D di memorie, i cui numeri reali sono ancora ben distanti da quelli suggeriti dalla visione sperimentale del metodo “copia e incolla”.

Anche se non è dato sapere se e quando l’informatica neuromorfica sarà pronta per fare ufficialmente il proprio ingresso sul mercato, sono già state tracciate alcune possibili roadmap di sviluppo che, per certi versi, ricordano quelle ipotizzate per l’informatica quantistica, che tuttora costituisce la principale alternativa rispetto all’informatica classica, pur basandosi su presupposti tecnologici e scientifici totalmente differenti.

Secondo Mark Davies, responsabile del Neuromorphic Computing Lab di Intel, la prima esperienza di contatto con il pubblico dovrebbe essere assicurata dall’inserimento nei chip tradizionali di alcune istruzioni specifiche per le applicazioni di natura neuromorfica. Questo consentirebbe di ampliare la community degli sviluppatori, per cui Intel ha di recente reso open source il framework di sviluppo neuromorfico LAVA, ai fini di diffondere le competenze e il know-how necessari a gettare le basi di questa nuova disciplina informatica.

In un secondo momento, a seguito di alcuni stadi evolutivi intermedi, sarà possibile implementare chip neuromorfici completi nei supercomputer e in altri data center dedicati. L’informatica neuromorfica è al momento qualcosa di molto ambizioso, il cui esito appare tutt’altro che scontato ma, a prescindere da come vada a finire, per dirla con il dottor Ham: «Lavorare verso un obiettivo così epico ci consentirà di andare ben oltre le attuali conoscenze sull’Intelligenza Artificiale, sulle neuroscienze e sulla tecnologia dei semiconduttori».

Default image
Francesco La Trofa
Da vent’anni attivo nella ricerca relativa alle tecnologie 3D, divulgatore sul tema delle applicazioni enterprise di tali tecnologie e autore di “VR Developer. Il creatore di contenuti in realtà virtuale ed aumentata” (2018), edito da Franco Angeli (vrdeveloper.info). Scrive di IT anche per il portale https://www.sergentelorusso.it/
Articles: 54