I ricercatori dell’USC sono impegnati da qualche anno in un filone di studi che ha l’ambizione di consentire ai sistemi di intelligenza artificiale di “immaginare l'invisibile”. Ecco l’ultimo metodo messo punto.

TAKEAWAY

  • È possibile un sistema AI in grado di “immaginare” oggetti di cui non ha mai acquisito prima i dati relativi ai loro attributi? È la domanda dalla quale ha origine un filone di ricerca portato avanti da alcuni Atenei internazionali, tra cui l’University of Southern California.
  • L’assunto di partenza è uno: la capacità del cervello umano di immaginare qualcosa a partire dalla combinazione di caratteristiche note, è nettamente superiore a quella di una macchina.
  • A tale riguardo, i ricercatori dell’USC propongono un framework di apprendimento che supporti le reti neurali artificiali nello scomporre i dati video in ingresso in una rappresentazione caratterizzata da attributi che possono poi essere ricombinati, ottenendo così dati video nuovi, mai acquisiti durante le sessioni di addestramento del sistema.

Un sistema di intelligenza artificiale sarebbe in grado di immaginare oggetti di cui non ha mai acquisito, in sede di addestramento, i dati relativi ai loro attributi? Intelligenza artificiale e immaginazione rappresentano un binomio ipotizzabile, anche alla luce dell’evoluzione – soprattutto negli ultimi cinque anni – delle tecniche che fanno capo all’ambito di studi dell’AI?

È del maggio del 2019 un articolo della rivista Scientific American in cui, per la prima volta, si accenna all’immaginazione artificiale e a come le macchine potrebbero, un giorno, apprendere ad essere creative, ricalcando, così, abilità e caratteristiche considerate unicamente umane.

In particolare, in questo articolo, si parla di “disentanglement” (letteralmente “districamento”), tecnica che permetterebbe alle reti neurali di diventare sensibili alla struttura di fondo dei dati video acquisiti, riuscendo a riprodurne le caratteristiche.

E, ad aprile del 2020, l’University of Southern California (USC) – alla quale faremo riferimento più avanti – riprende il concetto di disentanglement in uno studio in tema di computer vision, in cui presenta un nuovo framework di deep learning che consente all’algoritmo di variare le espressioni dei soggetti che compaiono nelle fotografie, senza, però, confonderne le caratteristiche facciali, come invece fa un comune deepfake che crea immagini e video falsi a partire da contenuti reali modificati .

In breve sintesi, il sistema AI sviluppato un anno fa dall’Ateneo californiano è capace di prendere la foto che ritrae un individuo e di trasporne l’espressione sul viso di una persona che compare in un’altra foto, mantenendo comunque invariate tutte le caratteristiche dell’immagine di destinazione.

Per fare questo, il team si è servito di due reti neurali artificiali: la prima denominata Landmark Disentanglement Network – la quale copia l’espressione e le posizioni dei volti – e la seconda Feature Dictionary-based Generative Adversarial Network, col compito di generare la nuova immagine sulla base di tali caratteristiche. Ma vediamo ora il secondo capitolo di tale ricerca.

Intelligenza artificiale e immaginazione: un nuovo framework di apprendimento in aiuto alle reti neurali artificiali

Al punto interrogativo in materia di intelligenza artificiale e immaginazione sta lavorando il team della USC Viterbi School of Engineering, presso la stessa University of Southern California, che ha reso pubblici i risultati di un recente studio in un documento illustrato il 7 maggio 2021 in occasione della nona edizione dell’International Conference on Learning Representations (ICLR).

Anche in questo caso, a essere prese in considerazione dall’Università statunitense sono le reti neurali artificiali che – lo ricordiamo – nell’ambito del machine learning, rappresentano un modello computazionale composto da neuroni artificiali, ispirato alla rete neurale biologica.

L’assunto di partenza è sempre uno: la capacità del cervello umano di immaginare qualcosa a partire dalla combinazione di caratteristiche note (colori, forme, materiali, dimensioni ecc.) è nettamente superiore a quella delle macchine.

In aiuto a queste ultime, il team propone un nuovo framework di apprendimento chiamato Group-Supervised Learning (GSL), che permette di scomporre i dati video in ingresso in una rappresentazione “districata” (mediante la tecnica di “disentanglement”), vale a dire caratterizzata da componenti “scambiabili”, che possono, cioè, essere ricombinati per creare nuovi campioni di dati video: ad esempio, immagini di barche rosse e di auto blu possono essere scomposte e ricombinate per sintetizzare immagini di auto rosse e di barche blu. Spiega il gruppo di ricerca:

Siamo stati ispirati dalle capacità di generalizzazione visiva del cervello umano, in grado di organizzare per attributi le conoscenze apprese – ad esempio forma, colore, posizione degli oggetti nello spazio – per poi ricombinare tali attributi e, sulla base di questa ricombinazione, immaginare un nuovo oggetto. Ecco, il nostro metodo tenta di simulare questo processo utilizzando le reti neurali artificiali

La tecnica del “disentanglement” e le prospettive aperte dall’immaginazione artificiale

In questo nuovo studio in tema di intelligenza artificiale e immaginazione, il perno è rappresentato dalla tecnica del “disentanglement”, alla quale si è accennato in precedenza.

Nel dettaglio, si tratta di un approccio per mezzo del quale il sistema AI prende in esame un gruppo di immagini campione – anziché un campione alla volta, come fanno gli algoritmi tradizionali – dal quale “estrae” le somiglianze tra le immagini.

Tali somiglianze, tali caratteristiche in comune, vengono, quindi, ricombinate, ottenendo così una nuova sintesi di immagini, ossia quello che – riferito alla macchina – potremmo definire “immaginazione”, in quanto il sistema crea dati video nuovi, che non ha mai acquisito durante le sessioni di addestramento.

Questo meccanismo è simile a quello del cervello umano quando estrapola una caratteristica, un attributo da un oggetto percepito nell’ambiente (ad esempio, un colore o una forma particolare) e lo applica a qualsiasi altro oggetto, sostituendo (mentalmente) il colore originale con quello nuovo estrapolato.

Usando la tecnica del disentanglement, il team dell’USC ha generato un nuovo set di dati contenente 1,56 milioni di immagini che potrebbero aiutare la ricerca futura in questo campo di ricerca.

Sebbene quello del districamento non sia un approccio nuovo, il gruppo di studio è convinto che sia compatibile con quasi tutti i tipi di dati. Il che – osservano – amplia le possibilità di applicazione, tra cui, ad esempio, la possibilità di estrapolare – da campioni di dati – attributi quali l’etnia o il genere, per poi ricombinarli e ottenere nuove sintesi di dati.

Operazione, questa, che potrebbe, in futuro, essere di aiuto nell’ambito della ricerca farmacologia, dove, potendo estrapolare dai dati inerenti alla funzione puramente terapeutica attributi relativi alla provenienza e al sesso dei pazienti, il sistema AI potrebbe arrivare a suggerire le basi per lo sviluppo di medicinali più efficaci.

Inoltre, l’immaginazione artificiale potrebbe anche rappresentare la via verso una guida autonoma più sicura, ad esempio consentendo ai veicoli di immaginare scenari pericolosi da evitare, mai visti prima durante le sessioni di addestramento del sistema AI.

Scritto da:

Paola Cozzi

Giornalista Leggi articoli Guarda il profilo Linkedin