Problema noto da anni, il Quantum Noise, il rumore quantistico, è un disturbo in grado di inficiare, anche in modo molto significativo, i risultati generati da un sistema. Ma il superamento della decoerenza quantistica è la conditio sine qua non è pensabile né possibile portare la computazione quantistica verso nuovi livelli di diffusione e utilizzo.

Considerata una delle tecnologie destinate a generare il maggiore impatto in industrie come pharma, chimica, automotive e finance, il Quantum Computing ancora soffre di problemi di maturità.

Non si tratta solo di avere una chiara visione di quando i computer quantistici saranno effettivamente disponibili in scala reale, ma di superare alcuni dei problemi tecnici che tuttora “affliggono” questa tecnologia. Uno in particolare: il rumore.

Nell’ambito dell’informatica quantistica, il rumore, il Quantum Noise, è uno dei fattori in grado di influenzare – e in qualche caso inficiare – l’accuratezza dei calcoli.


Il Quantum Noise è un disturbo che può alterare i risultati di un sistema quantistico, causato da vari fattori come campi magnetici, interferenze di dispositivi elettronici e interazioni tra qubit. Superare questo ostacolo, noto come decoerenza quantistica, è fondamentale per avanzare nel campo del calcolo quantistico e raggiungere livelli superiori di affidabilità e precisione.
Tecniche come la soppressione degli errori, la mitigazione degli errori e la Quantum Error Correction (QEC) sono state sviluppate per ridurre l’effetto del rumore sui qubit e migliorare la precisione dei calcoli.
Questi sviluppi sono cruciali per raggiungere il vantaggio quantistico, ovvero la capacità dei computer quantistici di risolvere problemi più velocemente rispetto ai computer classici.

Che cosa è il Quantum Noise

Nell’ambito del Quantum Computing, il rumore va inteso come un disturbo, generato da campi magnetici, dalle interferenze di WiFi o telefoni cellulari e persino dall’influenza che i qubit (i bit quantistici, vale a dire l’unità di informazione quantistica) esercitano l’uno sull’altro per vicinanza.

Un disturbo non da poco, visto che è in grado di far perdere informazioni ai qubit inattivi, di far ruotare in modo sbagliato quelli attivi e comunque di portare a uno stato diverso da quello atteso il sistema.

Il tema è noto, tanto da essere definito come decoerenza o decoerenza quantistica ed essere da tempo oggetto di studi e sperimentazioni. Già nel 2017, infatti, il fisico statunitense John Preskill arrivò a coniare la definizione di Noisy Intermediate Scale Quantum (NISQ) per indicare come i computer quantistici dell’epoca (e di fatto anche quelli di oggi) fossero soggetti a errori generati dai disturbi correlati ai loro ambienti [qui è possibile rivedere il suo keynote : https://www.youtube.com/watch?v=h4nUyF9cSaw&t=13s].

Le cause del rumore e della decoerenza quantistica

Una classificazione abbastanza frequente dei disturbi definisce quattro possibili cause della decoerenza quantistica:

  1. in primis l’ambiente. Variazioni di temperatura, campi elettrici o magnetici possono causare la degradazione delle informazioni quantistiche nel computer. Anche una debole radiazione spaziale galattica può spingere i qubit e quindi degradarli
  2. in secondo luogo i crosstalk, le diafonie, le interferenze. Bisogna tener presente che i computer quantistici sono alimentati da qubit che agiscono insieme, manipolati da laser o microonde. A volte il segnale laser o a microonde può avere un impatto sui qubit vicini e sul qubit bersaglio. In questo caso si parla di crosstalk o diafonia.
  3. deterioramento dello stato. Bisogna anche in questo caso tenere presente che lo stato quantico di un qubit si deteriora rapidamente anche dopo poche frazioni di secondo ed è dunque necessario che gli algoritmi si completino prima che gli stati quantici collassino
  4. errori di implementazione. Gli algoritmi applicano diverse rotazioni al qubit, implementate da impulsi laser o a microonde. Un’imprecisione nell’implementazione porta a conseguenti errori nei calcoli successivi

La decoerenza inficia precisione e affidabilità

La decoerenza è dunque un problema non da poco, che rende di fatto i computer quantistici meno idonei alla risoluzione dei problemi rispetto ai sistemi computazionali classici.

Secondo alcuni studi, nonostante il continuo lavoro per migliorare l’affidabilità dei qubit, al momento si parla di una precisione superiore al 99,9%: un valore sicuramente elevato, ma non sufficiente per consentire ai computer quantistici di eseguire gli algoritmi complessi necessari a superare i computer classici esistenti.

Nel gennaio del 2020, un team internazionale di ricercatori, guidato dal professor Andrea Morello dell’UNSW di Sidney ha annunciato di aver raggiunto un tasso di precisione del 99% con qubit a spin nucleare incorporati nel silicio.

Il lavoro, pubblicato su Nature lo stesso mese di gennaio (“Precision tomography of a three-qubit donor quantum processor in silicon”), evidenzia una accuratezza del 99,95% per i calcoli a 1-qubit, mentre nei calcoli a 2-qubit si è raggiunta una accuratezza del 99,37%.

Trovare e correggere gli errori quantistici è la sfida nel percorso verso il vantaggio quantistico, termine che indica il momento in cui i computer quantistici risolveranno i problemi del mondo reale più velocemente dei computer classici. E lo stesso Andrea Morello spiega che:

«In genere è necessario avere tassi di errore inferiori all’1% per poter applicare i protocolli di correzione degli errori quantistici. Avendo ora raggiunto questo obiettivo, possiamo iniziare a progettare processori quantistici al silicio che scalano e funzionano in modo affidabile per calcoli utili»

Ricordiamo che gli algoritmi classici o non quantistici sono costituiti da una sequenza finita di istruzioni, eseguibili su un computer “tradizionale”. Analogamente, gli algoritmi quantistici sono costituiti da una sequenza di istruzioni e utilizzano alcune caratteristiche essenziali della computazione quantistica, come la sovrapposizione quantistica o l’entanglement quantistico.

Gli algoritmi quantistici sono più veloci ed efficienti dei loro omologhi nella computazione classica: ad esempio, per l’algoritmo di Shor per la fattorizzazione si parla di una velocità esponenzialmente più elevata rispetto all’algoritmo classico, mentre l’algoritmo di Grover (solo per citare due dei più noti), utilizzato per la ricerca in un database non strutturato o in un elenco non ordinato, è quadraticamente più veloce rispetto a un algoritmo classico cui è demandato lo stesso compito.

Per superare il problema della decoerenza quantistica, è dunque necessario essere in grado di eseguire la correzione degli errori. Questo significa analizzare il sistema per determinare quali disturbi si sono verificati e poi invertirli.

Perché è importante correggere la decoerenza quantistica

In assenza di una efficace correzione degli errori, con l’aumentare delle dimensioni e della complessità di un sistema, i calcoli quantistici diventano inaffidabili.

Già nel 2019, Joschka Roffe, ricercatore del Dipartimento di Fisica e Astronomia dell’Università di Sheffield, così scriveva in un paper intitolato “Quantum Error Correction: An Introductory Guide”:

«I protocolli di correzione degli errori quantistici avranno un ruolo centrale nella realizzazione dell’informatica quantistica; la scelta del codice di correzione degli errori influenzerà l’intero stack dell’informatica quantistica, dalla disposizione dei qubit a livello fisico alle strategie di compilazione dei gate a livello software. Pertanto, la familiarità con la codifica quantistica è un prerequisito essenziale per la comprensione delle architetture di calcolo quantistico attuali e future»

Attualmente, alcuni gruppi di lavoro nel mondo accademico e industriale hanno sviluppato algoritmi che sembrano dare risultati positivi su computer limitati in dimensioni e coerenza.

Gli algoritmi sono valutati in presenza di rumore per capire quanto possano funzionare a breve termine in scenari realistici. La simulazione del rumore fornisce un approccio sistematico alla valutazione degli algoritmi rumorosi, consentendo di scegliere tra diversi tipi di rumore con intensità regolabile.

L’idea alla base di questi lavori è che con il progredire dello sviluppo di hardware quantistico, si possa capire quale sia l’influenza del rumore, modellando gli errori e dunque progredendo nella loro ricerca sulla correzione degli errori quantistici.

Cosa si profila all’orizzonte e che ruolo ha giocato il cloud

La situazione sembra comunque essere tutt’altro che allo stallo. Negli ultimi due anni, infatti, i progressi teorici e sperimentali sembrano andare nella giusta direzione: la combinazione di strategie hardware e software si sta rivelando promettente per sopprimere, attenuare e ripulire gli errori quantistici. E prima di quanto ci si potesse aspettare.

Di questo, parte del merito spetta anche al cloud. Quando, nel 2016 (in una data non casuale, il 4 maggio), IBM riuscì a garantire a fisici e ricercatori in tutto il mondo la possibilità di utilizzare i propri qubit, realizzando ilprimo computer quantistico con accesso al cloud, il problema è apparso in tutta la sua evidenza.

Settemila utenti registrati nella prima settimana, 22.000 nel primo mese: un numero sufficiente per rendere evidenti non solo l’interesse sul Quantum Computing, ma anche i suoi limiti.

Il punto di partenza era un sistema a 5 qubit, diventati poi 12, con un obiettivo ideale di arrivare a centinaia di migliaia di qubit in grado di lavorare insieme. Ed è parso subito chiaro quanto il rumore rappresentasse “IL” problema.

Certo, un po’ di rumore era comunque previsto: radiazioni termiche, variazioni di temperatura, l’applicazione di impulsi di energia per portare i qubit negli stati giusti erano tutte cause di rumore. Ma proprio la numerosità delle prove rese possibili dal cloud ha consentito ai ricercatori di imparare molto più velocemente di quanto non fosse possibile in precedenza.

Come tenere sotto controllo il Quantum Noise

Al momento, fisici e ricercatori stanno lavorando a una serie di soluzioni che possono aiutare a tenere sotto controllo il rumore, superando dunque i limiti della decoerenza quantistica:

  • si parte con la soppressione degli errori. È probabilmente l’approccio basilare e si basa sull’analisi del comportamento dei qubit e dei circuiti. In questo caso, la ricerca prevede un lavoro di riprogettazione dei circuiti e di riconfigurazione delle modalità con le quali vengono impartite le istruzioni, così da poter proteggere meglio le informazioni contenute nei qubit, aumentando di conseguenza le possibilità che gli algoritmi quantistici siano in grado di produrre una risposta corretta
  • un secondo livello di intervento punta invece alla mitigazione degli errori. L’assunto di partenza è che non sempre il rumore causa il fallimento completo della computazione: in molti casi si parla di “semplici” alterazioni che possono essere corrette. In questo caso, l’obiettivo è introdurre correttivi che possano ridurre il rumore e di conseguenza gli errori di computazione. L’analogia con gli strumenti di soppressione del rumore nel mondo audio non è casuale
  • il terzo livello di intervento è quello che viene definito Quantum Error CorrectionQEC, la correzione quantistica degli errori. È un approccio interessante: invece di conservare le informazioni di un qubit in un solo qubit, la QEC le codifica negli stati quantistici di un insieme di qubit. Un approccio che porterebbe a ridurre significativamente l’effetto dell’errore indotto al rumore. Infatti, monitorando ciascuno dei qubit aggiuntivi, è possibile rilevare qualsiasi cambiamento e correggerlo prima che l’informazione diventi inutilizzabile

Le tecniche di Quantum Error Correction

Di fatto, con la QEC (Quantum Error Correction) entra in gioco un insieme di tecniche specifiche nelle quali, a differenza di quanto accade con la correzione degli errori classica basata su bit 0 e 1, è necessario gestire i qubit che possono esistere in sovrapposizioni di stati.

Il metodo più comune di correzione degli errori consiste nel codificare un qubit logico utilizzando diversi qubit fisici. Grazie all’entangling dei qubit (vale a dire alla correlazione quantistica) e a un’attenta scelta della codifica, gli errori nei singoli qubit possono essere rilevati e corretti, preservando la loro informazione quantistica. Nella QEC, infatti, le informazioni vengono codificate in modo attento e ridondante in più qubit, in modo che gli effetti del rumore sul sistema possano essere, come suggerisce il nome, corretti

Non è un approccio semplice. Per quanto l’implementazione della QEC sia considerata essenziale nel percorso verso l’elaborazione quantistica su larga scala, non si può trascurare il fatto che richiede molto overhead.

L’architettura di correzione degli errori standard, nota come codice di superficie, richiede almeno 13 qubit fisiciper proteggere un singolo qubit “logico” utile. Quando si collegano tra loro i qubit logici, questo numero aumenta, tanto che un processore utile potrebbe richiedere 1.000 qubit fisici per ogni qubit logico [per informazioni dettagliate su questo aspetto: “An introduction to the surface code” – Andrew N. Cleland, University of Chicago].

Va detto che proprio su questi aspetti sono al lavoro in molti, da colossi come AWS, Google o IBM, a realtà di più piccole dimensioni.

Lo sviluppo di così tante tecniche di gestione del rumore è un fatto importante. Parliamo di innovazioni che vanno di pari passo con il miglioramento generale delle prestazioni dell’hardware e con l’aumento del numero di qubit su ogni processore, indispensabili per poter portare il quantum computing a utilizzi su larga scala, rendendolo comparabile – se non addirittura preferibile – a sistemi computazionali tradizionali.

In particolare, l’obiettivo al quale tendere è disporre di sistemi in grado di competere con i centri di calcolo ad alte prestazioni, con un consumo energetico decisamente ridotto. Prestazioni paragonabili, consumi ridotti, costi di gestione inferiori: questi gli obiettivi. Raggiungibili? Probabilmente nell’arco di un quinquennio.

Glimpses of Futures

Affrontare oggi il tema del Quantum Noise è indispensabile se davvero si pensa al Quantum Computing come la “Next Big Thing”, a supporto di attività chiave nell’ambito della ricerca medica, della chimica, del mondo finanziario.

Vediamo ora quali prospettive si aprono, avvalendoci della matrice STEPS (Social, Technological, Economic, Political, Sustainability).

S – SOCIAL: l’informatica quantistica è potenzialmente in grado di apportare benefici alla società in vari modi, tra cui rendere più efficaci i processi decisionali, sviluppare più velocemente farmaci e vaccini, rendere più efficaci servizi complessi. Va detto che il suo sviluppo non è scevro da considerazioni di tipo etico, che riguardano l’uso responsabile, l’accesso equo e il potenziale abuso della tecnologia. In particolare, esistono fondati timori che si accresca il divario digitale esistente tra chi ha accesso a tecnologie avanzate e chi no. Per questo si comincia a riflettere sulla definizione di linee guida che accompagnino lo sviluppo della tecnologia.

T – TECHNOLOGICAL: è una tecnologia innovativa, in grado di rimodellare il mondo. I computer quantistici, alimentati dai principi della meccanica quantistica, promettono di rivoluzionare le industrie, risolvere problemi complessi e aprire nuove frontiere della conoscenza.

E – ECONOMIC: dal punto di vista strettamente economico, l’informatica quantistica avrà un impatto economico laddove venga utilizzata per accelerare la risoluzione di problemi complessi. Non a caso, il mondo della finanza viene considerato uno dei potenziali beneficiari di questa tecnologia. Nondimeno, si aprono scenari di dubbio rispetto ai possibili impatti sulla sicurezza, laddove il calcolo quantistico venga utilizzato in attività di decrittazione. Non poche, poi, sono le preoccupazioni dal punto di vista occupazionale, da un lato per le possibili perdite di posti di lavoro, ma ancor di più per la carenza di figure specializzate in grado di supportare su larga scala lo sviluppo di questa tecnologia.

P – POLITICAL: la ricerca della supremazia quantistica sta spingendo i Governi e le principali aziende tecnologiche a investire nella ricerca e nello sviluppo del calcolo quantistico. Gli Stati Uniti, la Cina e l’Unione Europea sono in prima linea in questa corsa, e ognuno di loro sta cercando di raggiungere il Quantum Advantage cui abbiamo già fatto cenno. Questo impegno è guidato dal desiderio di assicurarsi vantaggi strategici in campi come la crittografia, la scienza dei materiali e la scoperta di farmaci. Ed è qui che nascono le principali preoccupazioni sul possibile impatto geopolitico dell’informatica quantistica. In particolare, nell’ambito della crittografia, le capacità dei computer quantistici potrebbero compromettere il mantenimento di canali di comunicazione sicuri, utilizzati nelle transazioni finanziarie e negli scambi di informazioni governative e aziendali sensibili.

S – SUSTAINABILITY: da un lato, i computer quantistici possono accelerare in modo significativo compiti complessi, riducendo potenzialmente i requisiti di energia e tempo. Dall’altro, come spiega in una propria ricerca Deloitte, il calcolo quantistico probabilmente trasformerà la lotta contro il cambiamento climatico. Accelerando lo sviluppo di soluzioni innovative per affrontare le sfide tecniche, le soluzioni quantistiche e digitali promettono l’accelerazione delle soluzioni per guidare il progresso verso soluzioni sostenibili e un processo decisionale informato.

Scritto da:

Maria Teresa Della Mura

Giornalista Leggi articoli Guarda il profilo Linkedin