Un nuovo corso di studi sonda che cosa accade negli strati più profondi e nascosti della rete neurale nell’ambito di applicazioni di computer vision, arrivando a intervenire – modificandolo - nel complesso meccanismo di ragionamento della macchina.
TAKEAWAY
- La rete neurale profonda è costituita da più livelli di neuroni artificiali, che si attivano in risposta alle caratteristiche dei dati in ingresso.
- Tra le applicazioni delle reti neurali profonde troviamo la computer vision, ramo dell’intelligenza artificiale dedito a riprodurre i processi e le funzioni propri dell’apparato visivo umano.
- Una delle questioni aperte della rete neurale profonda e, in generale, dei modelli di deep learning, sta in quello che è noto come “problema della scatola nera”, ovvero quello che accade nella “mente” della macchina, nei livelli di neuroni più profondi e nascosti.
- Da un team di ricercatori della Duke University, uno studio il cui obiettivo è quello di scardinare la scatola nera, di intervenire, modificandolo, nel meccanismo di ragionamento della rete neurale.
- Il gruppo di studio ha messo a punto un metodo che, anziché ricostruire il processo decisionale avvenuto, addestra la rete neurale a esplicitare il suo ragionamento (e, dunque, la sua comprensione dei concetti relativi a dati) lungo il percorso.
La rete neurale – in inglese ANN (Artificial Neural Network) o, più semplicemente, NN – (Neural Network) – rimanda a modelli matematici costituiti da neuroni artificiali che, nell’intento di replicarlo artificialmente, imitano il funzionamento del cervello umano.
Siamo nel regno dell’intelligenza artificiale e, più nello specifico, del Deep Learning – o “apprendimento profondo” – a sua volta campo di ricerca del Machine Learning, denominato anche “apprendimento automatico”, dove una macchina basata sul modello del cervello biologico è composta da unità computazionali elementari (i neuroni artificiali, appunto), “nodi” di una rete che possiede determinate capacità di elaborazione.
In particolare, la rete neurale profonda (DNN – deep neural networks) è costituita da più livelli di neuroni artificiali, che si attivano in risposta alle caratteristiche dei dati in ingresso: il primo livello elabora un input di dati grezzi – ad esempio, i pixel contenuti in un’immagine – e trasmette le informazioni al livello successivo, attivando il secondo livello di neuroni, che poi passa il segnale a livelli ancora più alti, fino a quando non viene determinato il contenuto esatto dell’immagine in ingresso.
Tra le applicazioni delle reti neurali profonde troviamo la computer vision – o visione artificiale – ramo dell’intelligenza artificiale dedito a riprodurre i processi e le funzioni propri dell’apparato visivo umano.
I sistemi di computer vision, sfruttando i sensori ottici di telecamere o di altri dispositivi, effettuano riconoscimenti, rilevazioni e classificazioni di persone e di oggetti all’interno della scena ripresa.
Una delle questioni aperte della rete neurale profonda e, in generale, dei modelli di deep learning, sta in quello che è noto come “problema della scatola nera”, ovvero quello che accade nella “mente” della macchina, nei livelli di neuroni più profondi e nascosti, spesso imperscrutabile anche per coloro che l’hanno sviluppata e costruita. Osserva Cynthia Rudin, professoressa di Informatica presso la Duke University, nella Carolina del Nord (Stati Uniti):
“I modelli di deep learning sono talmente complessi che, in realtà, non sappiamo che cosa davvero la macchina apprende a partire dai dati in ingresso. Spesso accade che questa sfrutti informazioni che non vogliamo, rischiando di avviare processi di ragionamento completamente errati“
Che fare allora?
Il Deep Neural Networks e il problema della scatola nera
Insieme al suo team, Rudin ha avviato uno studio – pubblicato lo scorso 7 dicembre sulla rivista Nature Machine Intelligence – il cui obiettivo è quello di scardinare la scatola nera, di intervenire, modificandolo, nel meccanismo di ragionamento della rete neurale.
Finora, in risposta al problema della scatola nera, la maggior parte degli approcci si è basato sul tentativo di scoprire che cosa porta un sistema di visione artificiale a rispondere in un dato modo alle informazioni in ingresso, indicando le caratteristiche chiave che lo hanno condotto all’identificazione dell’immagine. Ecco un esempio:
“In una radiografia toracica, la crescita della macchia rilevata dal sistema viene classificata come maligna, perché, per l’algoritmo di deep learning utilizzato, le caratteristiche individuate sono alla base della classificazione del cancro ai polmoni”
Tale approccio – spiega Cynthia Rudin – non scava nel ragionamento compiuto dalla rete neurale, ma ne illustra solo la direzione. Il team della Duke University, invece, ha messo a punto un metodo diverso: anziché ricostruire il processo decisionale avvenuto, addestra la rete neurale a esplicitare il suo ragionamento (e, dunque, la sua comprensione dei concetti relativi a dati) lungo il percorso.
Questo tipo di metodo, “districa il modo in cui i diversi concetti vengono rappresentati all’interno degli strati della rete neurale”. Data l’immagine di una biblioteca, ad esempio, l’approccio del team di Rudin consente di determinare se e quanto, per identificare l’intera scena, i diversi strati della rete neurale basano la propria rappresentazione mentale sul concetto di “libri”.
Il metodo controlla il modo in cui le informazioni fluiscono attraverso la rete e implica la sostituzione della sezione “standard” della rete neurale con una nuova sezione che costringe solo un singolo neurone artificiale ad attivarsi in risposta a un particolare concetto.
I concetti possono essere categorie di oggetti di uso quotidiano come “libro” o “bicicletta”, ma potrebbero anche rimandare a caratteristiche generali come “metallo”, “legno”, “freddo” o “caldo”. Avendo un solo neurone che controlla le informazioni relative a un singolo concetto alla volta, capire come la rete “pensa” risulta più facile.
Come i concetti vengono rappresentati all’interno dei diversi strati della rete neurale
Il gruppo di studio ha testato tale approccio su una rete neurale addestrata sulla base di milioni di immagini utili a riconoscere vari tipi di scene, interne ed esterne, da aule e aree di ristoro a parchi giochi e cortili.
E, in seguito, lo ha utilizzato su immagini che il sistema non aveva mai visto prima, andando ad analizzare a quali concetti i livelli di rete attingevano maggiormente durante l’elaborazione dei dati.
In particolare, fa notare la professoressa Cynthia Rudin, quando è stata inserita l’immagine di un tramonto arancione, la rete neurale addestrata, nei suoi primi strati, ha associato i colori caldi dell’immagine al concetto di “letto”.
In breve, la rete ha attivato il “neurone del letto” nei primi strati e, man mano che l’immagine ha viaggiato attraverso gli strati successivi, la rete si è basata su una rappresentazione mentale più sofisticata di ciascun concetto, attivando maggiormente il concetto di “aeroplano” rispetto a quello di “letto”, forse perché gli aeroplani sono più spesso associati all’immagine del cielo che, in questo caso, richiama l’immagine del tramonto.
Questo è solo un piccolo esempio dei risultati del test effettuato, ma che spiega come i ricercatori siano stati in grado di cogliere aspetti importanti della linea di pensiero della rete neurale. In un altro esperimento, hanno utilizzato il proprio metodo su una rete neurale addestrata a rilevare la presenza del melanoma nelle immagini diagnostiche.
Premesso che, prima che possa apprendere a individuare il melanoma, un sistema AI deve imparare che cosa rende i melanomi diversi dai nei normali e da altri punti benigni sulla pelle, allenandosi setacciando migliaia di immagini etichettate e contrassegnate da oncologi esperti di cancro della pelle, la rete oggetto del nuovo test ha evocato il concetto di “confine irregolare”, che è riuscita a elaborare autonomamente, senza l’aiuto delle immagini sulle quali è stata allenata.
Ebbene, chi ha somministrato al sistema le immagini per addestrarlo, non aveva considerato la caratteristica “confine irregolare”, ma la macchina sì. Che cosa significa questo?
“Il nostro metodo ha rivelato una lacuna nel set di dati utilizzato. Forse, se avessero incluso questa informazione nei dati, ora sarebbe più chiaro se il modello ha ragionato correttamente. Questo esempio mostra perché non dovremmo riporre una fiducia cieca nei modelli di deep learning senza conoscere ciò che accade al loro interno, nella loro ‘scatola nera’, soprattutto quando si tratta di applicazioni così delicate in ambito diagnostico”
ha concluso Rudin.