L’impiego di tecniche di intelligenza artificiale tocca ogni campo. Basata sull’uso dei dati, la loro codifica assume una particolare importanza. Quale sia la spiega Leonardo Chiariglione, scienziato e “papà” dell’MP3

Nello sterminato campo dell’AI, la codifica dei dati (Data Encoding) è un elemento di notevole valore. Non c’è settore che non sia lambito o permeato dall’impiego di tecniche afferenti all’artificial intelligence. Elemento basilare dell’AI sono i dati: ne sono generati enormi quantità ogni anno, ma non tutti sono effettivamente necessari. Serve quindi codificarli e comprenderli in modo da rendere proficuo il loro utilizzo. Da qui si è sviluppato MPAI (Moving Picture, Audio and Data Coding by Artificial Intelligence), un’organizzazione internazionale senza scopo di lucro con la missione di promuovere l’uso efficiente dei dati.

Fondatore e presidente è Leonardo Chiariglione, ingegnere, scienziato e universalmente noto come “papà” dell’MP3, algoritmo di compressione audio sviluppato dal gruppo MPEG che lo stesso ingegnere piemontese ha fondato e poi diretto per più di trent’anni. Su MPEG scrive lo stesso Chiariglione che esso:

“è il gruppo che ha sviluppato un impressionante portafoglio di standard e tecnologie che hanno creato un settore del valore di diverse centinaia di miliardi di dollari”.

Nel 2018 il valore annuo a livello globale di prodotti e servizi basati sugli standard MPEG era stimato dallo stesso in 1500 miliardi di dollari, equivalenti al 2% del Pil mondiale.

Dagli standard MPEG, il cui cuore era la compressione dei dati, si è passati tre anni fa a MPAI, che si basa sulla comprensione dei dati.

Come specificato dalla stessa organizzazione, la mission di MPAI è sviluppare standard per codificare i dati. I dati devono avere una rappresentazione digitale che consenta di utilizzarli in modo semplice per ottenere le informazioni necessarie. Nell’epoca dei big data, oggi si tratta di andare a estrarre magari da diversi terabyte anche solo 50 byte effettivamente utili.

Codifica dei dati mediante l’uso dell’intelligenza artificiale: i progetti MPAI e AI for Health

MPAI ha attivato 16 progetti: per nove di essi sono già stati sviluppati standard e negli altri sono in corso lavori dedicati. Uno dei nove progetti è AI for Health.

Leonardo Chiariglione - Fondatore e presidente di MPAI
Leonardo Chiariglione – Fondatore e presidente di MPAI

AI for Health (MPAI-AIH) prevede un sistema in cui i dispositivi (client) acquisiscono ed elaborano i dati sanitari degli individui utilizzando modelli di intelligenza artificiale condivisi e caricano i dati sul back-end con allegate licenze espresse da smart contract. Terze parti possono trattare i dati sanitari sulla base della relativa licenza. Di tanto in tanto il back-end utilizza federated learning per raccogliere e utilizzare i modelli di intelligenza artificiale per riqualificare i modelli comuni. Questi vengono ridistribuiti a tutti i client. Spiega Chiariglione:

«Questo è un sistema in cui le persone e potenzialmente i pazienti sono rappresentati dai loro smartphone su cui è attiva la piattaforma MPAI-AIH per il data processing con tecniche di intelligenza artificiale. Questo trattamento viene suddiviso in moduli con interfacce stabilite: essi si interconnettono e sono eseguiti come workflow in un ambiente denominato AI framework. In pratica, la persona acquisisce dati personali (health data) che vengono processati: alcuni sono conservati, altri invece sono passati al back-end che raccoglie i dati, concessi però attraverso una licenza espressa da smart contract, a garanzia della privacy».

Ogni persona iscritta ottiene dei modelli per il proprio smartphone, che sono reti neurali capaci di auto apprendere. L’utente, svolgendo le proprie attività, addestra il modello che poi viene redistribuito al back-end, senza intaccare i dati sensibili e a completa tutela della privacy di ogni utente.

«I benefici sono diversi: tutto quello che la comunità ha fatto per addestrare le proprie reti sulla base di dati propri viene messo in condivisione quando viene distribuito il nuovo modello. L’utente ottiene informazioni dettagliate, la community può contare su dati condivisi di utilità comune. Inoltre, mediante federate learning, il modello che viene ridistribuito contiene le conoscenze collettive aggiuntive. Quindi il sistema auto apprende ed evolve con l’uso, e continuerà ad apprendere e a migliorare».

L’utilità per l’utente finale è contare su informazioni e servizi sempre più ottimizzati, per un ospedale che usufruisce del sistema è avere dati processati per ottenere informazioni preziose per sviluppare, per esempio, un trial clinico, ma ci sono anche vantaggi per terze parti in termini di fruizione di dati e conoscenza condivisa.

Ingegner Chiariglione, lei ha fondato MPAI quale evoluzione di MPEG, o meglio, come nuova generazione di standard per la codifica di dati utilizzando intelligenza artificiale. Dove è nata quest’idea di guardare verso l’AI?

Ho fondato MPEG nel 1988 e l’ho guidato per 32 anni. Purtroppo, negli ultimi anni MPEG si era ridotto ad un club in cui si sviluppavano standard solo per le royalties sui brevetti: avevo sì creato MPEG perché gli inventori potessero guadagnare dai propri brevetti, a condizione che tutti potessero utilizzarli in modo certo. La fondazione di MPAI è stata la naturale evoluzione della visione originale di MPEG, creando le condizioni dove sia possibile standardizzare e contare sulla proprietà intellettuale, ma quando lo standard è finito la gente possa utilizzarlo. Il nostro obiettivo è realizzare standard effettivamente usabili, a condizioni ragionevoli.

A proposito di codifica dei dati basati su intelligenza artificiale, quali potenzialità apre l’AI per i campi applicativi in cui sta operando?

È bene specificare che non abbiamo un campo particolare. Disponiamo, invece, di una tecnologia (o, meglio, un insieme di tecnologie) che applichiamo in modo vario a diversi campi applicativi, che siano il metaverso, i veicoli autonomi connessi, i portable avatar e tanti altri ancora.

Per quanto riguarda il metaverso, quali sono le attività su cui avete concentrato l’attenzione?

Lo standard pubblicato a ottobre permette di realizzare dei metaversi di cui si definisce l’interoperabilità. All’interno di un metaverso vi sono molteplici processi di cui lo standard fornisce specifiche funzionali. Quindi per ogni processo noi stabiliamo che esso deve fare determinate cose generando determinati dati, senza specificarne il loro formato perché a oggi è impossibile in quanto la tecnologia del metaverso è immatura. Noi abilitiamo la produzione di dati con determinate caratteristiche che rendono possibile generare uno specifico ambiente, ma in modo che se un altro crea un ulteriore metaverso generando i dati con le stesse caratteristiche funzionali – non necessariamente con le stesse tecnologie– allora è possibile interoperare utilizzando un servizio di conversione di dati. Quindi, quello che rendiamo possibile è l’interoperabilità funzionale fra metaversi.

Tecnicamente parlando, l’architettura specifica: termini e definizioni; modello operativo; requisiti funzionali di processi, azioni, elementi (item) e tipi di dati; profili funzionali che consentono l’interoperabilità di due o più istanze del metaverso.

A proposito del veicolo autonomo connesso su quali aspetti avete lavorato?

Lo standard che abbiamo realizzato specifica l’architettura di un veicolo connesso e autonomo. È il primo della serie di standard pianificati. L’obiettivo dello standard MPAI-CAV (Connected Autonomous Vehicle) – Architecture è specificare sottosistemi e componenti di questo tipo di veicoli che consentano al settore di accelerare lo sviluppo di componentistica di cui si possa spiegare il funzionamento. 

Lo standard specifica quattro sottosistemi, uno in cui il passeggero “parla” con la macchina e un altro in cui il veicolo crea una propria rappresentazione dell’ambiente in cui si trova. Questa rappresentazione ha tutte le caratteristiche di un metaverso di cui il veicolo può permettere l’accesso ad altri veicoli perché tutti possano migliorare la propria comprensione dell’ambiente. L’ultimo sottosistema è infine quello che esegue le istruzioni inviate dal terzo sottosistema – il vero cervello del veicolo.

Il mondo dell’auto oggi è da considerare come un’industria che lavora su componenti. I costruttori di veicoli sono in larga parte integratori di componenti. Scopo dello standard è definire le interfacce di componenti base che singoli sviluppatori possano ottimizzare ed i costruttori integrare.

In estrema sintesi, abbiamo “fatto l’automobile a pezzi” e abbiamo definito le specifiche funzionali dei pezzi pensate per un sistema completo, creando i presupposti per un’integrazione.

A proposito di codifica dei dati basati su intelligenza artificiale, un altro standard che avete sviluppato ha a che fare col neural network watermarking. Di cosa si tratta?

Il neural network watermarking è una tecnologia che permette di modificare una rete neurale: per esempio, per controllare se una data rete è stata copiata. Secondo stime recenti, lo sviluppo di una soluzione AI personalizzata varia dai 6mila ai 300mila dollari. Di conseguenza, per il proprietario diventa importante garantire la tracciabilità e l’integrità dell’utente delle neural network.

Poter mettere una “filigrana” invisibile che non ha un impatto sulla qualità della rete è una richiesta sensibile. Inoltre, c’è un altro aspetto di interesse a proposito del watermark: quando l’informazione passa attraverso una rete neurale, essa può mettere un marchio su quello che ha prodotto. Prendiamo, a esempio, ChatGPT: su un testo anche solo di mezza pagina, sarà possibile stabilire che è stato creato da questo particolare Large Language Model oppure da un altro LLM. Lo standard MPAI Neural Network Watermarking consente di misurare, per una data dimensione del carico utile di watermarking: l’impatto sulle prestazioni della rete neurale; la resistenza alle modifiche; il costo di elaborazione dell’iniezione del watermark.

In una precedente intervista aveva accennato al valore enorme dei servizi basati su standard MPEG. Che valore possono generare prodotti basati su standard MPAI?

Oggi è prematuro parlarne. Non dimentichiamo che noi siamo nati tre anni fa, mentre il conto fatto sugli standard MPEG era basato su un lavoro trentennale. Ciò che posso dire oggi è che MPEG si occupava sostanzialmente “solo” di un determinato settore: i media. Oggi invece ci occupiamo di pressoché tutti i comparti, grazie alle possibilità ubique delle tecniche d’intelligenza artificiale.

Se una volta l’economia era basata su determinate attività, oggi tutto accade sulla base di dati scambiati e sull’importanza di dare senso e forma ad essi: per far questo c’è bisogno di macchine in grado di interpretare i dati ed è qui che entra in gioco l’AI.

Lei è universalmente conosciuto come il “papà” di MP3, datato 30 anni fa circa. Oggi è impegnato nell’attività di standardizzazione della codifica dei dati basati sull’intelligenza artificiale. Come si immagina il prossimo futuro?

È difficile dirlo. Pensiamo solo a quanto è successo solo nell’ultimo paio di anni con l’avvento dei Large Language Model. Stiamo parlando di autentiche scoperte nate in modo imprevedibile. Per questo è complesso ipotizzare ciò che succederà dall’interazione fra l’intelligenza umana con i dati nel lungo periodo.

Il valore della standardizzazione della codifica di dati basati su intelligenza artificiale come si immagina potrà evolvere?

Il valore dello standard nel campo dell’intelligenza artificiale è differente da quello che aveva in passato. È tutto molto più complicato rispetto a MPEG. La maggior parte dell’attività svolta in MPAI è definire le interfacce di componenti in modo tale che sia possibile integrarli in altri sistemi più complessi e realizzare delle macchine sempre più intelligenti.

Possiamo dire, quindi, che lo standard basato sull’AI si prepara alla… quarta dimensione?

Credo proprio di sì: nel caso dell’intelligenza artificiale ci muoviamo in uno spazio più vasto che possiamo chiamare quarta dimensione.

Scritto da:

Andrea Ballocchi

Journalist Leggi articoli Guarda il profilo Linkedin