In particolare nell’ultimo decennio abbiamo assistito ad una trattazione sempre più frequente di una disciplina emergente come il quantum computing, intesa quale fenomeno che contempla le applicazioni informatiche della fisica quantistica e soprattutto il principale oggetto del desiderio: il computer quantistico, presto o tardi destinato ad affiancare, se non addirittura a rimpiazzare, le tradizionali applicazioni basate sul calcolo binario, su cui si basa la stragrande maggioranza dei dispositivi informatici oggi presenti sul mercato.

Vediamo dunque cos’è un computer quantistico, quali sono state finora le principali tappe evolutive, prima di soffermarci sulle possibili applicazioni e sulle prospettive di ricerca a supporto di tecnologie emergenti come l’intelligenza artificiale.

Cos’è il computer quantistico

Ad oggi possiamo affermare come il computer quantistico sia un calcolatore capace di elaborare i dati in base alle proprietà offerte dalle leggi della fisica e i principi della meccanica quantistica, su cui si basa lo studio delle particelle subatomiche. Utilizzando i qubit, riesce a sfruttare i principi del calcolo quantistico per svolgere calcoli in maniera proporzionalmente molto più veloce rispetto ai sistemi tradizionali.

Si tratta, come vedremo, di una supremazia al momento più teorica che reale, in quanto le applicazioni disponibili sono al momento ridotte al lumicino, mentre i problemi fisici e informatici ancora da risolvere collocano i computer quantistici negli early days di una storia che si prospetta comunque molto interessante, per via di un potenziale che, una volta capitalizzato, potrebbe consentire di abbattere qualsiasi barriera di calcolo computazionale attualmente esistente.

Questo consentirebbe di eseguire simulazioni incredibilmente più profonde e complesse, per dare una risposta ai problemi logici che i più potenti supercomputer attuali non sono assolutamente in grado di risolvere.

Come funziona un computer quantistico (cosa significa quantum computing)

Tra gli argomenti fondamentali della ricerca informatica, pochi temi annoverano il fascino del quantum computing, dal momento che molti dei presupposti su cui si basa sono addirittura ancora avvolti dal mistero. Si conoscono in buona sostanza cause ed effetti, ma sulle dinamiche che ne descrivono il funzionamento la strada da percorrere è ancora molto lunga.

Come vedremo, la fisica, ed in particolare la meccanica quantistica, è una disciplina relativamente giovane e nasce proprio per descrivere il comportamento della materia laddove le teoriche classiche hanno iniziato ad evidenziare palesi limiti. Alcuni dei suoi capisaldi, come il celebre principio di indeterminazione di Heisenberg, scardinano i presupposti della fisica tradizionale soprattutto per quanto riguarda i concetti fondamentali e il punto di vista con cui si approccia il fenomeno oggetto di studio.

Nella sua applicazione informatica, la fisica quantistica introduce una variazione profonda, obbligando a ripensare i principi e i fondamenti teorici e pratici su cui si basa l’informatica classica, notoriamente basata sul sistema binario.

Vediamo cosa si intende per informatica quantistica e in cosa consiste il modello computazionale quantistico su cui si basa il funzionamento del computer quantistico.

L’informatica quantistica

Definita in base alle differenze nei principali fondamentali rispetto all’informatica “classica”, l’informatica quantistica comprende le tecniche di calcolo che utilizzano i quanti per elaborare e memorizzare le informazioni.

L’unità di informazione di base dell’informatica quantistica è definita dal qubit (quantum bit), che prende il posto di quello che il bit rappresenta per l’informatica tradizionale, basata sul sistema binario. A differenza di quest’ultimo, per cui il bit esprime uno stato di 1 o 0, il bit quantistico, sulla base del principio di sovrapposizione, è in grado di essere sia 1 che 0 allo stesso tempo e in diverse proporzioni. 

Questo livello di profondità consente a pochi qubit di eseguire miliardi di operazioni di calcolo al secondo. L’enorme potenziale computazionale è alla base della presunta supremazia quantistica, teorizzata per la prima volta nel 2012 da John Preskill: un concetto che esprime il momento in cui il computer quantistico potrà eseguire calcoli la cui complessità li pone al di fuori della portata del più potente supercomputer tradizionale.

Si tratta di un confine mutevole, in quanto le tecnologie hardware e software delle macchine tradizionali sono ben lungi dall’aver cessato la loro evoluzione, mentre il computer quantistico versa ancora in uno stato largamente embrionale, soprattutto per quanto concerne le reali possibilità applicative.

Almeno per il momento, la supremazia quantistica rappresenta dunque un traguardo simbolico, utile soprattutto a generare aspettativa nei confronti di questo nuovo orizzonte tecnologico, evidenziando i traguardi raggiunti soprattutto a livello dimostrativo.

Il modello computazione quantistico (quantum computing)

Prima di entrare nel merito della costituzione di un computer quantistico, è opportuno focalizzare tre aspetti fondamentali del quantum computing, soprattutto per capire perché gli elaboratori che si occupano di effettuare questi calcoli vanno ad operare letteralmente ai limiti delle leggi della fisica.

In estrema sintesi, le basi del quantum computing possono essere ricondotte a due proprietà quantistiche del qubit: la sovrapposizione quantistica e l’entanglement (o correlazione quantistica).

L’utilizzo combinato di questi principi determina le condizioni per cui i qubit possono imporre la propria supremazia rispetto allo stesso numero di bit binari. Ai pro di questa tecnologia emergente corrispondono anche dei limiti al momento ancora molto condizionanti, che derivano in buona parte dalla decoerenza quantistica:

  • principio di sovrapposizione quantistica: ogni elettrone, quando inserito in un campo magnetico, può assumere uno stato di spin allineato (spin-up) oppure opposto (spin-down) al campo magnetico stesso. Secondo la fisica quantistica una particella può anche avere uno stato di sovrapposizione, dove assume entrambi gli stati. La trasposizione di questo principio in ambito informatico, ci consente di ipotizzare uno stato in cui il qubit è al tempo stesso sia 0 che 1, oltre alla possibilità di assumere uno stato in cui può rappresentare tutte le possibili combinazioni possibili di 0 e 1. Il computer quantistico sfrutta la sovrapposizione dei qubit per elaborare una quantità molto elevata di informazioni, relativa alla facoltà di analizzare in contemporanea una enorme quantità di informazioni. Per innescare la sovrapposizione delle particelle che corrispondono ai qubit vengono impiegati strumenti come i laser di precisione, piuttosto che i raggi a microonde
  • entanglement (o correlazione quantistica): un elaboratore può generare coppie di qubit tra loro correlate in un singolo stato quantistico. Al variare dell’uno, ci si attende una variazione del qubit correlato, in quanto questa condizione viene mantenuta fino a quando il sistema che li contiene è perfettamente isolato. Il principio di entanglement è noto, ma le ragioni del suo funzionamento sono ancora piuttosto incerte ed in ogni caso ferme al campo delle ipotesi. Senza addentarci troppo nei meandri della fisica quantistica, ci basti sapere che grazie all’entanglement, l’aggiunta di qubit genera un aumento esponenziale della capacità computazionale di un computer quantistico. Si tratta di una condizione molto differente rispetto all’andamento lineare dei computer tradizionali
  • decoerenza quantistica: il principale effetto collaterale dei due principi elencati in precedenza è dato dall’estrema fragilità del qubit. La più minuscola vibrazione o variazione della temperatura del sistema causa infatti la perdita della sovrapposizione, vanificando qualsiasi risultato di calcolo prodotto dai qubit interessati. Tale condizione prende il nome di decoerenza quantistica e si manifesta quando il sistema quantistico smarrisce il suo isolamento rispetto all’ambiente circostante. Per sfortuna dei ricercatori, la decoerenza è uno dei processi più efficienti e veloci esistenti in fisica. Come vedremo, esistono varie soluzioni al problema, ma tutte particolarmente complesse ed onerose da implementare. L’obiettivo della ricerca dei quantum lab è quello di aumentare il più possibile il tempo di coerenza, in modo che i qubit possano svolgere calcoli più elaborati prima che il loro stato quantistico si perda definitivamente. Attualmente i tempi di coerenza medi dei computer quantistici sono valutabili nell’ordine dei 100 microsecondi
calcolo-quantistico
Il computer quantistico è un calcolatore capace di elaborare dati in base alle proprietà offerte dalle leggi della fisica e ai principi della meccanica quantistica, su cui si basa lo studio delle particelle subatomiche.

Il funzionamento dei computer quantistici

I principi su cui si basa il modello di computazione quantistico consentono di comprendere come l’aspetto di un computer quantistico non sia in alcun modo paragonabile a quello di un tradizionale pc, legato al funzionamento dell’elettronica tradizionale, quella che vede ormai da oltre cinquant’anni il silicio agire quale semiconduttore nei processori e nei dispositivi hardware utilizzati per l’elaborazione.

Per aumentare la velocità di calcolo è necessario aumentare la densità, miniaturizzando i processi di lavorazione del silicio, che attualmente sono arrivati a produrre elementi dal diametro di 7 nanometri.

Questa miniaturizzazione non potrà procedere all’infinito, per cui si aprono due vie alternative: il ricorso ad altri semiconduttori, alternativi al silicio (grafene, silicato di afnio, ossido di zirconio, ecc.) o l’impiego di nuovi metodi computazionali, come il quantum computing, che si basano su presupposti fisici totalmente differenti, anche se di base molto più complessi.

L’elettronica tradizionale, basata sui transistor, è infatti eccellente per via della sua semplicità, ma le sue caratteristiche intrinseche sono limitanti all’impiego della cosiddetta matematica booleana, in quanto il loro stato possibile corrisponde ad “acceso” o “spento”, cui corrisponde un solo calcolo alla volta.

Da un lato questo limite viene superato grazie alle architetture multi-core che affiancano un elevato numero di processori per eseguire simultaneamente un maggior numero di calcoli, ma oltre certi limiti di complessità un sistema di questo genere non può rivelarsi efficace, aprendo la via a soluzioni di design alternative, come quelle offerte dall’informatica quantistica.

Il computer quantistico segue a tutti gli effetti le leggi della fisica quantistica, sfruttando i qubit per eseguire in parallelo calcoli estremamente complessi ad una velocità che un computer tradizionale, nelle medesime condizioni non potrebbe mai pareggiare.

A livello di ordine di grandezza, parliamo di operazioni che attualmente richiedono anni di calcolo, che un computer quantistico potrebbe risolvere addirittura nel giro di pochi secondi. Ciò che a parole appare sin banale per la sua semplicità, è invece incredibilmente complesso dal punto di vista fisico e meccanico.

Per garantire la stabilità delle particelle dei computer quantistici sono necessarie delle condizioni di esercizio prossime allo zero assoluto (-273,15 gradi Celsius), con tutte le complessità che ne derivano, considerando come i sistemi refrigeranti in grado di garantire un risultato accettabile utilizzino materiali come l’elio allo stato liquido (isotropo elio-3) estremamente costoso e sensibile alle vibrazioni.

Il linguaggio quantistico intende infatti come “rumore” le più minuscole variazioni di temperatura o le minime vibrazioni che potrebbero far cadere le particelle fuori dallo stato di sovrapposizione prima di aver concluso il loro lavoro computazionale.

Il rumore quantistico ci consente da un lato di rimarcare la differenza profonda che intercorre tra il bit e il qubit, oltre a descrivere uno scenario in cui il computer quantistico sia ad oggi qualcosa di totalmente elitario, che non esce dalla dimensione dei più avanzati laboratori di ricerca informatici. La ricerca della stabilità del sistema viene ricercata con vari metodi.

Una via, già citata, è costituita dal raffreddare le zone di elaborazione con temperature vicine allo zero assoluto, in modo che i circuiti lavorino in maniera concettualmente vicina ai superconduttori. Un’altra opzione impiega dei campi elettromagnetici per intrappolare le particelle atomiche dotate di carica elettrica, manipolandoli in modo che gli elettroni producano una variazione di stato degli ioni, diventando a tutti gli effetti dei qubit.

Si tratta in ogni caso di processi costruttivi estremamente complessi, costosi e difficili da serializzare, in cui i margini di miglioramento della tecnologia sono letteralmente enormi, come testimoniano gli enormi investimenti effettuati dai principali player impegnati nello sviluppo di questa branca dell’informatica.

computer quantistico
La decoerenza quantistica rappresenta la problematica maggiore da affrontare per ottenere sistemi basati sul calcolo quantistico il più possibile liberi da errori capaci di vanificare i risultati delle elaborazioni.

La storia del quantum computing

La storia del computer quantistico inizia convenzionalmente nel 1982, quando Richard Feyman ha introdotto il principio di sovrapposizione quantistica. Tuttavia, tale momento, pur in maniera meno dichiarata, era stato preceduto dalle teorie di altri scienziati, come il premio Nobel Murray Gell-Mann, che intuì la possibilità di una nuova tipologia di informatica derivabile dal comportamento delle particelle elementari.

Consci del fatto che l’argomento richiederebbe una trattazione ben più ampia, proviamo a sintetizzare una cronologia del computer quantistico, dalla formazione della fisica quantistica fino ai nostri giorni, dove il fenomeno sta iniziando ad emergere in maniera significativa.

Le tappe del computer quantistico

Anche se le pagine più importanti della storia del computer quantistico sono ancora sicuramente da scrivere, possiamo sintetizzare una cronologia sintetica delle date più importanti della sua evoluzione, a partire dagli anni 30 del Novecento:

  • 1900-1930 circa: nasce la fisica quantistica, che vede impegnati ricercatori del calibro di Max Planck, Enrico Fermi, Werner Heisenberg, Albert Einstein, Wolfgang Pauli e molti altri
  • 1936: pubblicazione dell’articolo “The Logic of Quantum Mechanics” a cura di Birkhoff e Von Neumann, in cui emerge l’ispirazione della meccanica quantistica ad esplorare con approcci innovativi diversi ambiti della logica
  • 1973-1976: pubblicazione di un articolo, a cura di Alexander Holevo, in cui emergono le prime basi della Quantum Information Theory, ripresa tre anni più tardi dall’informatico polacco Roman Ingarden nel tentativo di creare una teoria quantistica dell’informazione, sostenendo come la teoria dell’informazione classica di Shannon non potesse essere generalizzabile al caso quantistico, mentre in realtà sarebbe del tutto possibile il contrario
  • 1982: data dello storico intervento di Richard Feynman alla “First Conference on the Physics of Computation” presso il MIT di Boston. Feynman ribaltò il punto di vista che voleva l’impossibilità di simulare un sistema quantistico con un computer tradizionale, sostenendo come la ricerca di questa capacità computazionale costituisse essa stessa una computazione e di fatto un’opportunità da sfruttare fino al raggiungimento del suo risultato. In altri termini, Feynman introdusse il principio di sovrapposizione quantistico, rimarcando la convenienza del suo utilizzo
  • 1985: David Deustch (Oxford University) descrive il primo computer quantistico, sulla base dell’analogia della macchina di Turing, capace a sua volta di simulare un qualsiasi computer tradizionale
  • 1994-1995: Peter Shor (AT&T) scopre un algoritmo di fattorizzazione, che tuttora porta il suo nome e consente ad un computer quantistico di scomporre facilmente nei suoi fattori primi dei numeri interi di qualsiasi dimensione. È stato per certi versi l’episodio che ha messo il quantum computing sulla carta geografica dell’informatica, in quanto l’implementazione di un algoritmo di questa portata avrebbe potuto teoricamente violare qualsiasi sistema di crittografia basato sulla matematica tradizionale
  • 1997-1998: i ricercatori David Cory, A.F. Fahmy, Timothy Havel, Neil Gershenfeld e Isaac Chuang pubblicano un articolo in cui si propone un sistema quantistico azionato per via della risonanza magnetica e realizzano il primo computer quantistico a 2-qubit presso l’Università di California at Berkeley
  • 1999-2001: presso il IBM Almaden Research Center, IBM realizza diversi modelli di computer quantistico, rispettivamente a 3-qubit, 5-qubit e 7-qubit, quest’ultimo in grado di eseguire integralmente l’algoritmo di Shor
  • 2016-2018: IBM continua a dimostrare computer quantistici in grado di avvalersi di un quantitativo maggiore di potenza, finalmente fruibile al pubblico attraverso la piattaforma IBM Q Experience. Nel 2018 viene reso disponibile un sistema quantistico a 17 qubit, a seguito di una intensa attività di ricerca e sviluppo che ha consentito di agire sulla qualità dei qubit, sulla connettività dei circuiti e sulla profondità di esecuzione degli algoritmi quantistici, con tempi di coerenza pari a 90 microsecondi, una durata molto affidabile per le potenzialità del periodo
  • 2019: IBM annuncia l’uscita del primo computer quantistico commerciale, destinato a funzioni che vanno oltre la pura ricerca. Localizzato a Las Vegas, il sistema IBM Q System One dispone di 20 qubit, mentre continua in parallelo la ricerca in laboratorio, su un sistema capace di simulare il funzionamento di un computer quantistico a 56 qubit, un livello che segna il raggiungimento della potenza di calcolo dei più potenti supercomputer tradizionali, stimabile nell’ordine dei 50 qubit. IBM Q System One è disponibile attraverso un ecosistema di servizi in cloud
  • 2019: Nell’ambito di un progetto svolto in collaborazione con NASA, Google annuncia Bristlecone, un chip da 72 qubit per sistemi computazionali basati sul calcolo quantistico
  • 2021: Il CERN diventa ufficialmente un Quantum Hub e sfrutta i computer quantistici di IBM per accelerare la ricerca ricerca nell’ambito della fisica delle alte energie; sempre nel 2021 IBM annuncia la disponibilità di Eagle (computer quantistico con 127 qubits)
  • 2022: arriva Osprey, il chip da 433 qubit di Ibm. L’ultimo processore Ibm per il calcolo quantistico promette di triplicare i qubit del suo predecessore e sfrutta un nuovo modello di cablaggio che potrebbe risolvere alcuni dei problemi di instabilità dei qubit.

Il resto è storia recente, con progetti sempre più ambiziosi in termini di potenza computazionale. Entro il 2023, IBM dovrebbe presentare un rivoluzionario computer quantistico da 1121 qubit: IBM Quantum Condor, prima tappa di una timeline di sviluppo che dovrebbe prospettare un sistema quantistico complessivamente in grado di superare addirittura il milione di qubit.

Oltre a potenziare i servizi in cloud per avere feedback indispensabili per sviluppare le applicazioni in grado di sfruttare la potenza di un computer quantistico, è in atto uno sforzo per arrivare a produrre dei sistemi commerciali, in grado di uscire dai laboratori dei più importanti quantum lab al mondo.

Oltre a “spaccare il qubit”, i provider quantum devono infatti porre le basi per lo sviluppo di applicazioni specifiche da eseguire per sfruttare tutta la potenza dei quantum computer.

Per incoraggiare lo sviluppo di software scritto secondo la logica della programmazione quantistica, IBM ha messo a disposizione in cloud una serie di computer quantistici da 14 qubit, liberamente disponibili per gli studenti, ai fini di incentivare la formazione di una community basata sul quantum computing, oltre che una rinnovata categoria di sviluppatori, che si presume diventi richiestissima nel momento in cui questa nuova generazione di computer inizierà a diffondersi concretamente sul mercato.

quantum-computing
L’unità di informazione di base dell’informatica quantistica è definita dal qubit (quantum bit), che prende il posto di quello che il bit rappresenta per l’informatica tradizionale, basata sul sistema binario.

I player mondiali oggi

Le risorse da mettere in campo per la ricerca e sviluppo del computer quantistico restringono molto il campo d’azione degli stakeholder interessati, anche se l’interesse generale sul quantum computing, come vedremo, è in grado di interessare moltissimi ambiti di business.

Tra gli attori protagonisti nella corsa all’informatica quantistica ritroviamo i big tech ed alcuni specialisti, tra cui IBM, Google, Intel, Microsoft, Amazon, Honeywell, Rigetti, piuttosto che alcuni tra i più importanti centri di ricerca multidisciplinari al mondo (MIT, Harvard).

Gli Stati Uniti anche in questo caso giocano alla guerra tecnologica con la Cina, mentre l’Unione Europea ha finanziato un progetto decennale, partito nel 2018, per un valore di oltre un miliardo di euro.

Anche se l’offerta di servizi basati sul quantum computing è ancora piuttosto elementare, non sono mancati alcuni episodi di “trash talking” per ribadire il primato rispetto agli altri brand.

In tal senso, diventa impossibile non citare l’entusiasmo con cui Google, nel dicembre 2019, ha rivendicato il raggiungimento dell’agognata supremazia quantistica, grazie al suo Sycamore, un computer quantistico da 53 qubit, dichiarando alla stampa come fosse in grado di eseguire in soli 200 secondi un calcolo che il supercomputer tradizionale IBM Summit avrebbe elaborato in circa 10.000 anni.

La risposta di IBM non si fece attendere molto. Senza scomodare i propri computer quantistici, IBM ha affermato come una configurazione adeguata di Summit avrebbe realizzato il calcolo in questione entro due giorni e mezzo e che i diecimila anni ipotizzati da Google non avessero alcun fondamento.

Le computer wars assumono risvolti spesso divertenti, con l’obiettivo di catturare l’attenzione dei media e soprattutto l’attenzione della gente, che viene attirata dal fascino di numeri spesso privi di qualsiasi riscontro pratico. L’hype su queste nuove tecnologie aiuta ovviamente i player ad attirare nuovi investitori per procedere con convinzione lungo le proprie roadmap di sviluppo.

Tale interesse sta inoltre facendo la fortuna di alcune startup, il cui business è dichiaratamente basato sul calcolo quantistico. Di recente Zapata ha ottenuto circa 38 milioni di dollari dagli investitori, mentre IQM ha finora raggiunto 46 milioni di dollari. Un elenco destinato ad allungarsi in tempi molto rapidi.

Dove trovare un computer quantistico

Al momento i computer quantistici sono fisicamente disponibili soltanto nei laboratori dei player che investono direttamente nel loro sviluppo. Le condizioni ambientali richieste per contenere l’insorgere del rumore fatale alla fase di sovrapposizione sono talmente proibitive che al momento sarebbe troppo complesso garantire il funzionamento di un quantum computer presso un cliente.

Dal punto di vista della disponibilità pratica, il luogo dove poter usufruire del computer quantistico diventa dunque il cloud. I principali brand del tech offrono degli ecosistemi di servizi basati sul quantum computing per consentire agli sviluppatori di avvalersi non soltanto della potenza computazionale, ma soprattutto delle innovative logiche di programmazione che consentono di testare un software davvero di nuova generazione.

Il computer quantistico di IBM

IBM Q - Il computer quantistico di IBM
IBM Q – Il computer quantistico di IBM
Credits: IBM Research | Licenza CC | https://www.flickr.com/photos/ibm_research_zurich/40786969122 Autore della foto: Graham Carlow

Oltre ai già citati IBM Q System One a 20 qubit, disponibili in cloud, e ai più evoluti IBM Quantum Hummingbird (65 qubit) e IBM Quantum Eagle (127 qubit), IBM è attiva per implementare e rendere disponibile un computer quantistico da 1121 qubit, il IBM Quantum Condor, il cui arrivo è previsto entro il 2023, data che il colosso americano prevede come il punto di svolta per l’informatica quantistica.

Per quanto riguarda invece le previsioni a lungo termine, IBM prevede un ulteriore progetto di sviluppo,finalizzato a realizzare un computer quantistico da un milione di qubit, ottenuto in un ambiente refrigerato in elio liquido capace di garantire tempi di coerenza finora soltanto ipotizzati, in condizioni sempre più prossime allo zero termico. IBM non si è mai sbilanciata in merito ad una possibile data di rilascio di questo sistema quantistico, capace di garantire un effettivo salto di scala a livello di performance e stabilità.

In una recente dichiarazione alla stampa, Bob Sutor, vicepresidente dell’ecosistema quantistico di IBM ha accennato al futuro commerciale del quantum computing: “Nessuno sta ancora utilizzando il calcolo quantistico a livello commerciale […] occorreranno almeno cinque anni ed inizialmente saranno i leader di settore a passare a questa nuova tecnologia, iniziando a sperimentarla”. IBM conta attualmente su un network di oltre 100 partner per lo sviluppo di applicazioni quantistiche sul proprio cloud.

A livello di sviluppo, IBM ha annunciato, entro la fine del 2021, la disponibilità di Qiskit, un software open source con cui prevede di dare una forte accelerata alle applicazioni basate sul calcolo quantistico. Di recente è stato organizzato un corso per 200 sviluppatori, ma si sono presentate addirittura 4000 richieste di iscrizione, un dato che ha spiazzato la stessa azienda americana: “L’aspetto più sorprendente – spiega Sutor – è il fatto che questi giovani programmatori stanno imparando il calcolo quantistico nello stesso momento in cui stanno imparando a programmare. Ciò è di fondamentale importanza, perché questa generazione di sviluppatori è quella che creerà il software per tutti”.

Il computer quantistico di Google

Se IBM vanta una tradizione di lunghissimo corso nella pur giovane storia del quantum computing, Google ha effettuato degli sforzi enormi per recuperare il gap nel minor tempo possibile, arrivando ad autodichiarare per prima la supremazia quantistica nel corso del 2019.

Tra i quantum computer sviluppati da Google ritroviamo Foxtrail (2016), Bristlecone (2017) e Sycamore (2018), che con i suoi 54 qubit superconduttori supporta l’esecuzione di algoritmi come Hartree-Fock (chimica), QAOA (ottimizzazione) e svariati sistemi di machine learning.

Nei laboratori Google di Santa Barbara trova luogo il Quantum AI Campus, che concentra il primo quantum data center di Big G, utilizzato per garantire i servizi cloud di una piattaforma dedicata al testing di algoritmi quantistici sviluppati dalla community dei ricercatori di tutto il mondo.

Come IBM e gli altri principali player, anche Google sta investendo parecchi sforzi per garantire gratuitamente librerie su GitHub, come l’interessantissimo framework Cirq, scritto in Python, che consente di creare ed editare circuiti quantistici NISQ (Noisy Intermediate Scale Quantum) eseguibili su sistemi quantistici come Sycamore o su simulatori quantistici tradizionali.

Oltre ai data center, Il Quantum AI Campus di Google garantisce un ambiente end-to-end interamente dedicato allo studio dei sistemi e delle applicazioni basate sull’informatica quantistica, come i laboratori di ricerca e gli stabilimenti dove vengono fabbricati i chip dei computer quantistici. Il team di ricerca di Google prevede che i primi sistemi quantistici industriali potranno finalmente arrivare sul mercato entro il 2029.

I computer quantistici di D-Wave Systems

Alla stessa Google, oltre che a NASA, è riferibile anche la storia di D-Wave Systems, che esprime numeri computazionali su una scala decisamente differente rispetto a quelli cui operano IBM e Google. Nel 2011, il pioniere del quantum computing Geordie Rose annuncia il D-Wave One, un computer quantistico da 128 qubit, reso disponibile sul mercato, mentre nel 2013 replica con il D-Wave Two, il cui elaboratore raggiungeva la stratosferica capacità di 512 qubit.

Il D-Wave Two prospetta quale elaboratore un circuito superconduttore operante a circa 2 gradi Kelvin (-271 gradi Celsius) grazie ad un sofisticato sistema di raffreddamento con elio liquido (isotropo elio-3).

Elevando leggermente la temperatura del sistema la corrente inizia a girare con pari probabilità in senso orario o antiorario ed è lo stato di indeterminazione stesso a fungere da qubit utilizzato per svolgere i calcoli richiesti al sistema.

Nel 2018, il D-Wave 2000Q viene annunciato come un computer quantistico dotato di ben 2000 qubit. A cosa si deve questa drastica differenza di potenza rispetto ai sistemi di IBM e Google?

Il funzionamento dei sistemi D-Wave si riferisce a computer definiti quantum annealer, che agiscono per ottimizzazione combinatoria per risolvere dei problemi molto specifici. Si tratta di un approccio radicalmente differente rispetto a quello messo in atto dai computer quantico generalisti di IBM e Google e questo spiega la notevole differenza nominale in termini di qubit utilizzati. 

Sulla base di queste precisazioni, molti ricercatori sostengono addirittura che un quantum annealer, per via della sua fortissima ottimizzazione, non possa nemmeno essere considerato come un computer quantistico, ma il suo modello computazionale sarebbe di tipo assolutamente tradizionale.

A prescindere dalle indagini tipologiche, l’impiego di un quantum annealer risulta efficace soltanto in quei contesti per cui il sistema è stato in precedenza ottimizzato, con tutti i pro e i contro del caso.

quantum-computing
I computer quantistici sono fisicamente disponibili soltanto nei laboratori dei player che investono direttamente nel loro sviluppo. Le condizioni ambientali richieste per contenere l’insorgere del rumore fatale alla fase di sovrapposizione, sono talmente proibitive che, al momento, sarebbe troppo complesso garantire il funzionamento di un quantum computer presso un cliente.

Cosa possono fare i computer quantistici (per cosa possono essere usati)

Il primo aspetto molto evidente relativo alla potenzialità del calcolo quantistico è relativo alla crittografia informatica. La straordinaria potenza computazionale di cui un computer quantistico dispone potrebbe, almeno in teoria, mettere facilmente in crisi gli attuali sistemi di crittografia. Ciò metterebbe a rischio tutte le attività le cui operazioni sono basate in qualche modo sulla protezione dei dati.

Per offrire una risposta a questa evidente minaccia, è stata disciplinata la cosiddetta Quantum-safe Cryptography (crittografia post quantistica), che si riferisce di fatto a schemi di crittografia che possono essere eseguiti anche da un computer tradizionale, pur con un livello di sicurezza che li pone al riparo dai tentativi di violazione operate da un computer quantistico. La protezione garantita dai sistemi crittografici si basa sulla difficoltà del problema matematico da risolvere per violare il protocollo di sicurezza.

L’unica soluzione al problema risiede al momento nello studio di problemi matematici talmente complessi la cui risoluzione sarebbe impossibile anche per un sistema quantistico. Esistono diversi approcci, attualmente in fase di sperimentazione, che vanno dalla crittografia su curve ellittiche alla crittografia isogenica. A fare la differenza è soprattutto la matematica su cui si basano.

Al di là della crittografia, un riferimento molto comodo per formare una visione globale delle possibili applicazioni del calcolo quantistico è stato siglato da Gartner con l’eccellente “The CIO’s guide to Quantum Computing”, pubblicata nel 2019, per introdurre gli innovatori aziendali al “potere dirompente del quantum computing e delle potenziali applicazioni nell’intelligenza artificiale, nel machine learning e nella data science”. Secondo le analisi di Gartner, il quantum computing potrebbe contribuire a rivoluzionare i seguenti ambiti disciplinari:

  • machine learning: incremento nelle applicazioni di apprendimento automatico attraverso applicazioni predittive più veloci. Tra gli esempi ritroviamo le macchine di Boltzmann, le macchine quantistiche di Boltzmann, i sistemi di apprendimento semi supervisionati, l’apprendimento non supervisionato e il deep learning
  • intelligenza artificiale: l’incremento della velocità di calcolo potrebbe migliorare la percezione, la comprensione e la diagnosi dei guasti ai classificatori binari
  • chimica: nuovi fertilizzanti, catalizzatori, prodotti per batterie potrebbero ottenere grandi ottimizzazioni nell’impiego delle risorse
  • biochimica: tra le applicazioni in grado di ricevere grandi benefici vi è la produzione di nuovi farmaci, la medicina personalizzata e addirittura nuovi prodotti tricologici
  • finanza: il calcolo quantistico potrebbe permettere di impiegare le simulazioni “Monte Carlo” in maniera più rapida e completa rispetto a quanto effettuato finora. Nell’ambito del trading sarebbe possibile analizzare meglio l’ottimizzazione delle traiettorie, l’instabilità del mercato e l’ottimizzazione dei prezzi e le strategie di copertura
  • medicina e salute: il sequenziamento dei geni del DNA, come l’ottimizzazione dei trattamenti con radioterapia o la diagnostica dei tumori cerebrali potrebbe essere effettuati nel giro di pochi secondi, anziché nell’arco di settimane, come avviene tuttora
  • materiali: grazie al calcolo quantistico sarebbe possibile accelerare la ricerca di materiali super resistenti, vernici anticorrosive, lubrificanti e semiconduttori
  • computer science: sarebbe possibile ottenere funzioni di ricerca multidimensionali più rapide, per esempio per ottimizzare le query, le simulazioni e, in generale, i calcoli matematici

Computer quantistico e intelligenza artificiale

Un ambito che ha costantemente bisogno di grandi risorse computazionali è definito dalle tecniche di intelligenza artificiale. La quantità di dati e la complessità delle elaborazioni richieste mettono sistematicamente a dura prova i computer tradizionali.

In particolare, questo vale per il deep learning e, più in generale, per le applicazioni che si riferiscono all’intelligenza artificiale generale, quella che mira in maniera esplicita all’analogia con il ragionamento dell’essere umano, piuttosto che alla risoluzione di problemi specifici.

In questo contesto, le reti neurali profonde necessitano ad esempio di calcoli di una tale mole e complessità da rendere auspicabile il ricorso all’informatica quantistica. Il quantum computing, compatibilmente con il lungo percorso di sviluppo ancora da percorrere e i costi tutt’altro che trascurabili per assicurare il funzionamento pratico, offre pertanto una soluzione di design alternativa, che potrebbe diventare obbligata per cercare di dare una soluzione a problemi computazionali attualmente fuori dalla portata degli elaboratori tradizionali.

Ad oggi parliamo di un contesto piuttosto futurista, che non può trovare riscontro oltre la semplice sperimentazione. Un aspetto che viene in ogni caso considerato con grande attenzione per il fatto che il computer quantistico potrebbe abilitare una modalità computazionale parallela molto simile a quella adottata dalle sinapsi del cervello umano, il che consentirebbe di realizzare delle reti neurali profonde più efficaci rispetto a quelle finora realizzate.

Le problematiche e le questioni ancora aperte

Nei precedenti paragrafi abbiamo in più occasioni affrontato gli aspetti relativi alla decoerenza quantistica, che rappresenta la problematica maggiore da affrontare per ottenere dei sistemi basati sul calcolo quantistico il più possibile liberi da errori capaci di vanificare i risultati delle elaborazioni.

Si tratta di una sfida costante, dove i più importanti quantum lab stanno investendo una grande quantità di risorse, nella direzione di ottenere un numero di qubit sempre più elevato a disposizione, per risolvere in tempi sempre inferiori dei problemi sempre più complessi.

Appare per certi versi paradossale il confronto tra informatica classica e informatica quantistica, intendendo la prima come qualcosa di addirittura obsoleto, quando per molti versi è ancora nel pieno del suo sviluppo.

Almeno per quanto riguarda i computer, quel che è certo è che i limiti fisici degli attuali semiconduttori non consentiranno di miniaturizzare all’infinito l’hardware da cui deriva la potenza computazionale, mentre le applicazioni continueranno a richiederla in misura sempre maggiore.

In termini di aspettative, sarebbe doveroso trattare il quantum computing con un certo senso di responsabilità, evitando di scadere in un discutibile hype mediatico che rischia soltanto di screditare il duro lavoro che ogni giorno viene svolto nei laboratori di ricerca.

È inoltre plausibile prevedere come, al pari di tutte le tecnologie emergenti, anche il calcolo quantistico venga investito da considerazioni di carattere etico. La ragione è semplice: la sua straordinaria potenza, se utilizzata con finalità poco nobili, può generare conseguenze nefaste, soprattutto se si prevede un’attività in settori particolarmente sensibile nei confronti della sicurezza dell’uomo e dell’ambiente.

Il calcolo quantistico non è una disciplina alla portata di tutti. Il suo sviluppo richiede competenze molto specifiche e va incoraggiato con iniziative mirate a formare una community di sviluppatori la cui volontà coincida nella creazione di software basati su logiche di programmazione quantistica.

Si tratta di un aspetto fondamentale per dare forma a qualcosa che oggi in buona sostanza non esiste ancora, implementando la necessaria base di ore sviluppo da cui i provider della tecnologia possono ottenere i feedback necessari per progredire con lo sviluppo dei sistemi quantistici.

La strada da affrontare si presenta lunga ed impervia, ma la posta in palio è troppo alta per non correre il rischio e affrontare i sacrifici necessari per portare il calcolo quantistico ad un livello di maturità tale da poter rivoluzionare gli effetti del mondo che ci circonda.

Scritto da:

Francesco La Trofa

Giornalista Leggi articoli Guarda il profilo Linkedin