La fotonica consentirà ai sistemi di intelligenza artificiale di processare dati più rapidamente e con dispendi energetici notevolmente inferiori. Lo rivela una ricerca della Scuola Politecnica Federale di Losanna. Ma sono svariati i vantaggi dell’impiego combinato fotonica e AI.

TAKEAWAY

  • La fotonica è un settore in rapida crescita, con un mercato globale stimato oggi superiore ai 600 miliardi di euro.
  • Uno dei suoi pregi è la possibilità di trasmette informazioni senza interferenza fisica da parte dei cavi, agevolando così il trasferimento dati e permettendo ai sistemi di intelligenza artificiale di processarli più velocemente e con un dispendio energetico inferiore.
  • Si prefigurano numerosi vantaggi dell’impiego della fotonica nell’ambito dell’artificial intelligence, che spaziano dalle auto a guida autonoma fino al prossimo futuro dei sistemi informatici.

La combinazione tra intelligenza artificiale e fotonica è destinata a essere sempre più attuata e attuale. Già oggi il suo impiego assicura vantaggi in diversi settori, dalle comunicazioni alla salute fino all’energia, in particolare al fotovoltaico. Ed è per questo che la fotonica è un settore in rapida crescita, con un mercato globale di circa 350 miliardi di euro che è stimato oggi superiore ai 600 miliardi di euro.

Uno dei suoi pregi è legato alla caratteristica specifica della tecnologia: sfruttare le proprietà della luce. Essa trasmette informazioni senza alcuna interferenza fisica da parte dei cavi: ed è questo il vantaggio principale della tecnologia ottica quando si tratta di trasferire dati. L’ottica è uno dei potenti mezzi di comunicazione ed elaborazione delle informazioni e c’è un intenso interesse nell’elaborazione ottica delle informazioni per realizzare calcoli ad alta velocità.

A oggi, però, la sfida è ancora quella di progettare dispositivi di calcolo ottico che possano garantire grandi prestazioni a fronte di un ridotto fabbisogno energetico. Anche se i calcoli vengono eseguiti rapidamente, l’ostacolo è trasferire i risultati alla memoria alla stessa velocità e in modo efficiente dal punto di vista energetico.

Su questo sta lavorando la ricerca: in tal senso, va segnalato il lavoro del team di ingegneri della Scuola Politecnica Federale di Losanna (EPFL), in Svizzera. In un recente studio, il cui esito è stato pubblicato sulla rivista Nature Computational Science, sono riusciti a mettere a punto un sistema di elaborazione dati provvisto di fibre ottiche: i calcoli sono eseguiti automaticamente dalla propagazione di impulsi di luce all’interno della fibra.

Messo a confronto con una rete neurale con 25 strati di neuroni, entrambi i sistemi hanno classificato i raggi X ugualmente bene. Tuttavia, il “sistema fotonico” ha consumato 100 volte meno energia, ha fatto sapere il team.

Questo risultato è certamente notevole, ma un altro aspetto altrettanto importante è che la maggiore efficienza energetica del sistema potrebbe anche aprire la porta a nuove opportunità in altre aree del computing ottico ultraveloce, di cui potrebbero giovare le tecniche che fanno capo agli studi dell’intelligenza artificiale. I sistemi di calcolo ottico ibrido stanno emergendo come una nuova tecnologia promettente.

Essi combinano la larghezza di banda e la velocità dell’elaborazione ottica con la flessibilità del calcolo elettronico. Quando accoppiati con programmi di intelligenza artificiale in robotica, microscopia e altri compiti di visual computing, questi sistemi ibridi potrebbero raggiungere alcune delle capacità di trasformazione che sono state, per molto tempo, immaginate come l’unica prerogativa dei computer ottici.

In tema di intelligenza artificiale e fotonica, si prefigurano altri vantaggi, che spaziano dalle finalità di realizzazione di strumenti di ottica spaziale ai sistemi di guida autonoma fino al prossimo futuro dei sistemi informatici, quelli che utilizzeranno la fotonica al posto dell’elettronica convenzionale per creare sistemi di informatica neuromorfica fotonica.

Fotonica: cos’è e quanto è importante per l’Europa e per le TLC

Prima di parlare dell’impiego combinato di intelligenza artificiale e fotonica è bene chiarire cosa sia la fotonica. È una branca dell’ottica che studia il modo di controllare la propagazione dei singoli fotoni, che compongono la luce.

Più genericamente si può intendere come la “scienza della luce,” al cui cuore sono le tecnologie per generare luce, trasmetterla, amplificarla, modularla, oltre che rilevarla e analizzarla. Il termine è stato coniato negli anni Sessanta a seguito dell’invenzione del laser. Oggi la fotonica è ovunque intorno a noi: dalle comunicazioni alla diagnostica medica, dal settore aerospaziale al fotovoltaico, entra un po’ dappertutto.

A livello europeo, l’industria fotonica impiega direttamente più di più di 300mila persone, molte delle quali nelle oltre 5.000 Pmi specifiche spesso strutturate in cluster di innovazione nazionali e regionali.

Non è un caso che la Commissione europea abbia definito la fotonica come una delle sei tecnologie abilitanti chiave dell’Europa. Ha un effetto leva sostanziale a livello economico e occupazionale: il 20-30 % dell’economia e il 10% della forza lavoro dipendono, infatti, dalla fotonica.

A interessare particolarmente è il suo impiego nelle telecomunicazioni. Di recente, in materia di fotonica integrata, è stato realizzato il primo chip ottico (più precisamente, un dispositivo TOADM – Tunable Optical Add Drop Multiplexer) in grado di selezionare e indirizzare in modo puramente ottico i segnali nei nodi della rete, realizzato su un chip di silicio di soli 2 mm2.

Il risultato aiuterà la crescita della banda larga nelle reti ottiche dei nuovi sistemi di comunicazione 5G/6G e nei collegamenti intra e inter-datacenter classici e quantistici. Ma soprattutto costituisce il primo passo nella futura realizzazione in un unico chip che integri segnali elettrici e luminosi.

La ricerca è parte integrante del progetto europeo Nebula cui partecipa un team del dipartimento di elettronica, informazione e bioingegneria del Politecnico di Milano.

Intelligenza artificiale e fotonica: sistemi di calcolo ibridi ed efficienti

In materia di intelligenza artificiale e fotonica, ancora più interessante è il contributo della fotonica allo sviluppo di nuovi sistemi di elaborazione dati. La tecnologia ottica è utilizzata per trasmettere, memorizzare, visualizzare e identificare i dati. Fornisce l’elemento più importante di cui i data center hanno forse bisogno: la velocità di elaborazione.

La tecnologia arriva in un momento in cui la scala massiccia delle serie di dati di oggi sta mettendo a dura prova la capacità dei computer digitali ed elettronici di compilarli ed estrarre le informazioni chiave. La luce trasmette informazioni senza alcuna interferenza fisica da parte dei cavi.

Per prendere a esempio l’intelligenza artificiale, molti programmi di AI richiedono acceleratori per eseguire calcoli rapidi usando una potenza minima. Per ora, mentre la tecnologia ottica potrebbe teoricamente soddisfare questa esigenza, non ha ancora raggiunto la fase applicativa, nonostante mezzo secolo di ricerca. Questo perché il calcolo ottico e il processo decisionale non fanno ancora risparmiare né tempo né energia” ha affermato Demetri Psaltis, professore di bioingegneria e direttore del laboratorio di ottica dell’EPFL.

Lo ha detto in veste di coordinatore del team di ricerca elvetico mirato allo sviluppo di una tecnica di machine learning chiamata Scalable Optical Learning Operator (SOLO) , in grado di riconoscere e classificare le informazioni formattate come immagini bidimensionali.

Come spiegano gli stessi scienziati coinvolti, il pregio della ricerca è che la tecnologia ottica può ridurre l’energia richiesta dalle tecniche che fanno capo all’ambito di studi dell’intelligenza artificiale. Sono partiti dalla constatazione che fino a oggi progettare dispositivi di calcolo ottico ha criticità significative.

Anche se i calcoli vengono eseguiti rapidamente, l’ostacolo è trasferire i risultati alla memoria alla stessa velocità e in modo efficiente dal punto di vista energetico. Ed è questa la sfida che hanno affrontato.

L’idea su cui hanno lavorato è stata mirata a semplificare l’architettura stessa dei computer elettronici, per la cui progettazione gli scienziati informatici si sono ispirati alle reti neurali del cervello.

È il presupposto del deep learning, ambito di studi rientrante nella più ampia disciplina dell’intelligenza artificiale, il cui metodo di apprendimento si basa su reti neurali. Le artificial neural network sono costruite a strati. Più strati ci sono, più sofisticata è la capacità decisionale del computer.

Nel 1990, queste reti erano profonde uno strato che rappresentava 1 milione di connessioni neurali. Oggi, le reti più potenti possono contenere, 10, 20 o più di strati e miliardi di connessioni.

Tutto questo implica una grandissima capacità di elaborazione dati, ma un enorme dispendio energetico. L’obiettivo della ricerca dell’EPFL è stato proprio quello di ridurre il fabbisogno energetico utilizzando la fotonica.

Come ha spiegato Ugur Tegin, coautore del lavoro, il team di cui fa parte ha quindi cercato di utilizzare le fibre ottiche per eseguire alcuni calcoli:

I calcoli sono eseguiti automaticamente dalla propagazione di impulsi di luce all’interno della fibra. Questo semplifica l’architettura del computer, mantenendo solo un singolo strato neuronale, rendendolo un sistema ibrido

La maggiore efficienza energetica del sistema messo a punto dal team EPFL potrebbe anche aprire la porta a nuove opportunità in altre aree del computing ottico ultraveloce. Così si combinano intelligenza artificiale e fotonica. Tali sistemi ibridi, infatti, accoppiati con programmi di AI in robotica, microscopia e altri compiti di visual computing, potrebbero raggiungere prestazioni notevoli a fronte di una drastica efficienza energetica. 

Intelligenza artificiale e fotonica: il ruolo combinato per la guida autonoma

Ma la combinazione virtuosa di intelligenza artificiale e fotonica non termina qui. Anche nel campo dei sistemi di guida autonoma si sta ragionando sulle potenzialità della fotonica per l’AI.

L’elaborazione matematica di molti livelli di dati utilizzando strumenti specifici ha portato al successo in applicazioni come il riconoscimento vocale, la classificazione delle immagini e, appunto, la guida di veicoli autonomi.

In questo caso in particolare, per contare su risultati efficaci occorre contare sulla possibilità di elaborazione di grandi volumi di dati molto rapidamente. La guida è una sfida particolare perché deve essere fatta in tempo reale. Questo rende la latenza un problema quando si gestiscono grandi volumi di dati.

Gli sviluppatori sperano che la combinazione di parallelismo ottico, integrazione fotonica e fotonica del silicio possa ridurre la latenza per soddisfare i limiti esigenti dell’apprendimento profondo in applicazioni come i veicoli autonomi.

Nel campo della ricerca si lavora, tra l’altro allo sviluppo di chip fotonici. Uno spinoff del Massachusetts Institute of Technology chiamato Lightmatter ha introdotto quello che l’azienda chiama “il primo acceleratore di intelligenza artificiale fotonica generale al mondo“.

Chiamato Envise, è un modulo fotonico che può essere inserito nei principali modelli di AI e reti neurali per sovralimentare le loro prestazioni, che nel mondo AI si misurano in inferenze al secondo.

Le prospettive aperte: l’informatica neuromorfica fotonica

Guardando poi alle prospettive aperte della combinazione virtuosa tra intelligenza artificiale e fotonica c’è il lavoro che costituisce una delle prossime frontiere dell’informatica.

Un team di scienziati, tra cui il professor C. David Wright dell’Università di Exeter, ha esplorato il potenziale futuro dei sistemi informatici utilizzando la fotonica al posto dell’elettronica convenzionale. Si parla di informatica neuromorfica fotonica.

Di questa nuova branca la stessa università inglese ne parla in un articolo sulla rivista scientifica Phys, spiegando che i segnali vengono comunicati ed elaborati utilizzando la luce piuttosto che gli elettroni, dando accesso a larghezze di banda molto più elevate (velocità del processore) e riducendo notevolmente le perdite di energia.

I ricercatori cercano di rendere l’hardware di calcolo stesso isomorfo con il sistema di elaborazione biologico (cervello), sviluppando dispositivi per imitare direttamente le funzioni di base dei neuroni e delle sinapsi del cervello, collegandoli poi insieme in reti che possono offrire un’elaborazione veloce, parallelizzata e adattiva per applicazioni di intelligenza artificiale e di machine learning.

Scritto da:

Andrea Ballocchi

Giornalista Leggi articoli Guarda il profilo Linkedin