Un algoritmo quantistico verificabile supera i supercomputer e apre nuove prospettive per lo studio dei sistemi complessi e della struttura molecolare. L’algoritmo sviluppato da Google dimostra un vantaggio quantistico riproducibile, collegando caos, interferenza e possibili reali applicazioni future in chimica e fisica

Un team di Google Quantum AI ha annunciato un risultato storico: per la prima volta un computer quantistico ha eseguito un algoritmo “verificabile” più veloce di un supercomputer. L’algoritmo in questione si chiama Quantum Echoes e il suo successo, pubblicato sulla rivista Nature, rappresenta un passo significativo verso applicazioni pratiche dei computer quantistici. In passato erano già state dimostrate forme di “supremazia quantistica” (ad esempio nel 2019, con un calcolo impraticabile per i calcolatori classici), ma quelle sfide erano per lo più accademiche e difficili da verificare direttamente. Ora, con Quantum Echoes, si parla invece di vantaggio quantistico verificabile: il risultato ottenuto può essere ripetuto e controllato su un’altra macchina quantistica di pari livello, confermandone la correttezza. In altri termini, non è un output casuale utile solo a battere un record, ma un calcolo con un valore scientifico concreto e riproducibile.

Il contesto è quello di un progresso costante nel campo dei computer quantistici. Dopo la dimostrazione iniziale del 2019, la ricerca si è concentrata su come ridurre gli errori di calcolo quantistico (che erano un ostacolo chiave). Alla fine del 2024 Google ha presentato Willow, un chip quantistico a 105 qubit con errori drasticamente ridotti. Grazie a queste migliorie hardware, nel 2025 il team è riuscito a far girare Quantum Echoes sul chip Willow 13.000 volte più velocemente del miglior algoritmo classico equivalente eseguito su uno dei più potenti supercomputer al mondo. Questo traguardo suggerisce che i computer quantistici stanno iniziando a superare i supercomputer non solo su problemi teorici, ma anche in compiti mirati con possibili ricadute pratiche.


Non è solo un record di velocità. Quantum Echoes segna il passaggio da dimostrazioni astratte di supremazia quantistica a un vantaggio quantistico verificabile e scientificamente significativo.
La verificabilità cambia il paradigma. La possibilità di riprodurre il risultato su dispositivi quantistici equivalenti rafforza la credibilità del calcolo quantistico come strumento di ricerca, non solo come esercizio teorico.
Gli OTOC diventano una sonda operativa. Correlatori fuori ordine temporale, finora difficili da misurare, emergono come strumenti pratici per indagare caos, entanglement e dinamiche a molti corpi.
L’interferenza quantistica è la risorsa chiave. Il vantaggio computazionale deriva dalla capacità di far interferire un numero enorme di traiettorie quantistiche, un compito fuori portata per i metodi classici.
Prime applicazioni ibride concrete. L’uso di Quantum Echoes come “righello molecolare” in NMR mostra come il calcolo quantistico possa amplificare e interpretare dati sperimentali reali.
Tecnologia ancora selettiva. Il risultato dipende da hardware avanzato e da contesti sperimentali molto controllati; non è una soluzione generale, ma una prova di principio mirata.
Un segnale per il futuro della ricerca. Quantum Echoes indica una direzione: computer quantistici integrati nei laboratori scientifici come strumenti complementari, capaci di rendere osservabili fenomeni prima inaccessibili.

Google Quantum AI - Quantum Computer - credits: Google
Google Quantum AI – Quantum Computer – credits: Google

Cosa sono gli OTOC e perché contano

Il cuore di Quantum Echoes è un algoritmo per stimare particolari grandezze fisiche note come OTOC – acronimo che sta per Out-of-Time-Ordered Correlators, traducibile come correlatori fuori ordine temporale. Di cosa si tratta? In parole semplici, è una misura di quanto un sistema quantistico ricorda un piccolo disturbo iniziale col passare del tempo. Gli OTOC sono nati nello studio del caos quantistico: analogamente al famoso effetto farfalla nei sistemi caotici classici, un OTOC quantistico quantifica come una minima perturbazione (ad esempio, l’inversione dello spin di una particella) si propaga e influenza altre parti di un sistema quantistico man mano che evolve.

In un sistema caotico, l’entanglement e la complessità crescono rapidamente con il numero di particelle e il tempo di evoluzione. Le osservabili usuali tendono a perdere memoria dei dettagli iniziali: l’effetto del disturbo si “scramble”, termine poco traducibile in italiano che sta ad indicare che il disturbo o la perturbazione iniziale si mescola nel sistema, rendendo difficile distinguerlo sullo sfondo generale. Ciò significa che dopo un po’ non si notano più differenze misurabili dovute a quel piccolo cambiamento iniziale: il sistema “dimentica” le condizioni di partenza. Questo è un limite perché molti fenomeni quantistici interessanti si nascondono proprio in queste correlazioni sottili che scompaiono rapidamente. Inoltre, a differenza dei sistemi classici, non possiamo affidarci semplicemente alla sensibilità esponenziale alle condizioni iniziali (il metodo classico per rivelare caos) perché l’equazione di Schrödinger è lineare; quindi, il concetto classico di caos va ripensato.

Ecco dove entrano in gioco gli OTOC. Essi forniscono un modo intelligente per svelare quei dettagli nascosti utilizzando protocolli di eco quantistico con inversione del tempo. In pratica, si costruisce un esperimento in cui si fa evolvere il sistema, si introduce un piccolo disturbo, poi si riavvolge il nastro dell’evoluzione (operando una inversione temporale controllata) e si osserva quanta traccia di quell’alterazione iniziale riappare nell’eco finale. Se il sistema non fosse stato colpito dal disturbo, l’inversione riporterebbe tutto com’era all’inizio; invece, ogni differenza residuale nell’eco finale è indice di quanto il disturbo si è propagato nel sistema. In termini tecnici, l’OTOC è proprio questa correlazione tra l’operatore che perturba il sistema e la misura finale dopo l’eco temporale. Un valore OTOC elevato significa che l’informazione iniziale è ancora presente (quindi il disturbo non ha avuto grande effetto a lungo raggio), mentre un valore basso indica che il disturbo si è mescolato nel sistema, diffondendosi tra molte particelle.

Gli OTOC sono importanti perché funzionano come sonde ultrasensibili della dinamica quantistica interna. Permettono di accedere a correlazioni quantistiche che altrimenti risulterebbero invisibili usando misure tradizionali senza inversione temporale. Negli ultimi anni, concetti legati agli OTOC sono stati usati in molti campi di frontiera: dalla metrologia quantistica allo studio della termalizzazione nei sistemi a molti corpi, fino a speculazioni su come l’informazione si disperda dentro un buco nero. Avere un algoritmo efficiente per calcolarli sperimentalmente significa disporre di uno strumento per vedere l’invisibile, per capire meglio fenomeni complessi come la crescita dell’entanglement o la presenza di traiettorie coerenti nascoste in mezzo al caos apparente.

L’esperimento di Google: come funziona Quantum Echoes

L’algoritmo Quantum Echoes di Google, in sostanza, calcola un OTOC servendosi di un “eco quantistico” generato su un processore superconduttivo programmabile da 105 qubit (il chip Willow). Il nome “echo” non è casuale: il procedimento ricorda gli esperimenti a eco usati in fisica (come l’eco di spin in NMR o il Loschmidt echo). Google lo descrive come un segnale che viene inviato dentro il computer quantistico, poi invertito, per ascoltare l’eco che ritorna.

Willow Chip - Google Quantum AI - credits: Google
Willow Chip – Google Quantum AI – credits: Google

In pratica, il team ha implementato il seguente ciclo di operazioni sul processore quantistico:

  • evoluzione “forward” (in avanti): si prepara il sistema di qubit in uno stato iniziale noto e lo si fa evolvere applicando una serie di operazioni quantistiche (una sorta di “circuito” che rappresenta un’evoluzione temporale);
  • perturbazione: a un certo punto dell’evoluzione, si applica un’operazione su un singolo qubit (ad esempio un’inversione di uno spin) per introdurre un piccolo disturbo controllato nel sistema;
  • evoluzione “backward” (all’indietro): si inverte la dinamica; usando operazioni quantistiche opportune, si esegue la retro-evoluzione che idealmente riporta indietro lo stato del sistema come se il tempo scorresse al contrario;
  • misura dell’eco: infine, si misura lo stato di un qubit di riferimento (ad esempio lo stesso qubit perturbato inizialmente) per vedere se è tornato com’era all’inizio. Se l’evoluzione inversa avesse annullato perfettamente tutti i cambiamenti, vorrebbe dire che il disturbo non ha lasciato traccia globale. Al contrario, qualsiasi deviazione osservata è proprio l’eco del disturbo: un segnale che rivela quanto quell’informazione si è diffusa nel sistema.

Questo processo sfrutta un principio cruciale: l’interferenza costruttiva. Quando l’eco quantistico viene generato, le diverse traiettorie possibili dell’evoluzione (immaginabili come molti percorsi paralleli che l’informazione quantistica può prendere) si sovrappongono in fase per effetto dell’inversione temporale. In altre parole, l’eco che ascoltiamo è amplificato perché le onde quantistiche corrispondenti al segnale “si sommano” invece di cancellarsi. Questo aumenta enormemente la sensibilità del metodo: anche un effetto piccolo, grazie all’interferenza, diventa misurabile con chiarezza, emergendo dal rumore di fondo. Nel lavoro di Google, si è osservato proprio questo fenomeno di interferenza costruttiva che evidenzia contributi al segnale altrimenti inosservabili.

L’esperimento, dunque, è riuscito a misurare correlazioni quantistiche complesse (OTOC di secondo ordine) in un sistema a 105 qubit fortemente entangled, mantenendo sensibilità anche a tempi di evoluzione lunghi. Ciò che rende il risultato straordinario è duplice:

– da un lato dimostra un tipo di correlazione quantistica di alto livello in un sistema di grandi dimensioni (confermando che l’eco quantistico rimane sensibile ai dettagli anche quando altre misure andrebbero a zero);

– dall’altro, è un compito computazionalmente proibitivo per i calcolatori classici, a causa dell’enorme complessità di simulare tutte quelle traiettorie interferenti in un sistema quantistico così grande.

In effetti, il valore misurato dell’OTOC risente di contributi da un vasto numero di percorsi di evoluzione (descritto nel lavoro come “stringhe di Pauli che formano grandi loop” nel sistema), generando un’interferenza collettiva intrattabile per i metodi classici. Questa complessità è proprio ciò che ha permesso al chip quantistico di battere i supercomputer su questo problema, segnando un chiaro esempio di vantaggio quantistico.

Un altro aspetto fondamentale è che il risultato è verificabile. Per verificarlo, in pratica, servirebbe un altro computer quantistico di capacità simile: se anch’esso eseguisse Quantum Echoes sulle stesse condizioni iniziali, dovrebbe ottenere lo stesso esito, a conferma che non si tratta di un artefatto o di un errore casuale. Questa ripetibilità è stata riscontrata all’interno dello stesso dispositivo (ripetendo l’esperimento più volte) e rappresenta un netto passo avanti rispetto a precedenti dimostrazioni quantistiche non verificabili. Significa che siamo più vicini a usare i computer quantistici come strumenti scientifici affidabili, in grado di fornire risultati concreti su cui altri ricercatori possono lavorare.

Un “righello quantistico” per le molecole: applicazione in NMR

Un ulteriore motivo di entusiasmo attorno a Quantum Echoes è la sua prima applicazione pratica nel campo della chimica molecolare. In un esperimento di prova (proof-of-principle) condotto in collaborazione con l’Università di Berkeley, il team ha utilizzato l’algoritmo come una sorta di “righello molecolare” per misurare distanze e angoli all’interno di molecole organiche. L’idea di fondo è combinare la spettroscopia NMR (Risonanza Magnetica Nucleare) tradizionale con la potenza del calcolo quantistico per superare alcuni limiti attuali nell’analisi strutturale delle molecole.

Ricordiamo che la NMR è uno strumento fondamentale in chimica e biologia: sfrutta l’interazione magnetica tra nuclei atomici (spin) per ricavare informazioni sulle distanze e la geometria in una molecola; in pratica funziona come un microscopio molecolare capace di dirci quali atomi sono vicini tra loro nello spazio. Tuttavia, le tecniche NMR attuali hanno limitazioni: ad esempio, non riescono a misurare direttamente distanze superiori a circa 6 ångström (0,6 nanometri) tra nuclei di carbonio. Per molecole grandi e complesse, questo lascia molte zone d’ombra sulla loro struttura, perché legami e interazioni oltre quella portata diventano difficili da stimare.

L’esperimento di Google affronta questo problema sfruttando proprio gli OTOC come amplificatori di segnale strutturale. In breve, hanno sospeso delle molecole organiche (due composti modello, uno di 15 atomi e uno di 28 atomi) in un mezzo liquido cristallino, e hanno applicato sequenze di impulsi NMR che generano un eco multi-corpo tra gli spin nucleari interagenti. Durante l’eco, hanno introdotto perturbazioni controllate (su nuclei selezionati, detti butterfly spins nel gergo tecnico) e misurato l’effetto di queste perturbazioni sul segnale rifocalizzato. In sostanza, stavano misurando un OTOC all’interno di un sistema molecolare reale: la polarizzazione inizialmente localizzata su un nucleo si propaga attraverso la rete di spin molecolari, poi la sequenza di impulsi inverte l’evoluzione riportando la polarizzazione verso il nucleo iniziale; l’ampiezza dell’eco finale diminuisce se, nel frattempo, un altro nucleo distante è stato perturbato – il che indica che l’influenza si era estesa fino a quel nucleo remoto.

Questo metodo consente di misurare quanto lontano viaggia l’influenza di un atomo dentro la molecola, informazione strettamente legata alle distanze interatomiche.

Naturalmente, interpretare quantitativamente un tale segnale NMR “arricchito” non è banale: richiederebbe simulare dinamiche quantistiche di molti spin con interazioni dipolari complesse, un compito praticamente intrattabile per i computer tradizionali (la complessità cresce esponenzialmente con il numero di nuclei). Ed è qui che il computer quantistico entra di nuovo in gioco: gli scienziati hanno fatto eseguire al chip quantistico la simulazione delle dinamiche degli spin (utilizzando circuiti quantistici ottimizzati ad hoc) per estrarre dai dati NMR le informazioni strutturali cercate. Questo approccio ibrido ha permesso di determinare, ad esempio, la distanza media tra due atomi di idrogeno in posizioni specifiche di una molecola di toluene, e l’angolo di torsione medio di un biphenyl dimetil-sostituito, con un’accuratezza e una precisione paragonabili a quelle ottenute con metodi spettroscopici tradizionali indipendenti.

In altre parole, l’eco quantistico ha fornito un metro per misurare aspetti strutturali che normalmente sarebbero rimasti fuori portata per la sola NMR classica.

I risultati sono incoraggianti: il confronto con i dati noti da altre tecniche ha confermato che le misure di Quantum Echoes corrispondono alla realtà, con in più dettagli aggiuntivi che la NMR convenzionale da sola non era in grado di dare. Questo significa che integrando i computer quantistici nei protocolli di analisi molecolare potremmo accedere a informazioni finora nascoste – ad esempio distanze più lunghe o correlazioni a più corpi all’interno di macromolecole – migliorando la comprensione di strutture chimiche complesse.

Gli stessi autori definiscono questa tecnica un “quantum-scope”, un nuovo strumento quantistico che, analogamente a come telescopi e microscopi hanno aperto nuovi orizzonti, potrebbe un giorno misurare fenomeni naturali prima inaccessibili.Per fare qualche esempio, si prospetta che un NMR potenziato dal calcolo quantistico potrebbe diventare utile nella scoperta di farmaci (per capire meglio come i candidati molecolari si legano ai bersagli biologici) o nella scienza dei materiali (per caratterizzare la struttura molecolare di nuovi polimeri, componenti di batterie, o persino dei materiali usati per realizzare i qubit stessi). Si tratta dunque di uno scenario in cui la capacità di calcolo quantistica funge da amplificatore e interprete di segnali sperimentali, colmando gap nelle tecniche esistenti.

Limiti attuali e interrogativi aperti

Nonostante il successo, è importante mantenere un approccio realistico: Quantum Echoes, pur promettente, è un primo passo e restano diversi limiti e domande aperte.

In primo luogo, il risultato sperimentale di Google, per quanto impressionante, si applica a un problema specifico (il calcolo di correlatori OTOC e il conseguente apprendimento di parametri strutturali). Non risolve genericamente qualunque problema computazionale meglio dei classici: rappresenta piuttosto una pietra miliare che dimostra come, scegliendo bene l’algoritmo e il sistema fisico da simulare, un computer quantistico può superare i migliori supercomputer in compiti mirati. La sfida ora è trovare altre applicazioni “utili” che sfruttino principi simili di interferenza quantistica costruttiva per ottenere vantaggi computazionali. Il campo del quantum computing dovrà insomma arricchirsi di un arsenale più vasto di algoritmi a vantaggio quantistico verificabile, ciascuno indirizzato a problemi reali nei vari settori scientifici e industriali.

Un secondo limite evidente è la dipendenza dall’hardware all’avanguardia. L’esperimento Quantum Echoes ha richiesto un dispositivo di altissima qualità: 105 qubit controllabili individualmente, operazioni quantistiche veloci e soprattutto tassi di errore estremamente bassi. Se i qubit fossero troppo rumorosi o le porte logiche imprecise, l’eco quantistico si sarebbe perso nel rumore prima di poter rivelare qualcosa. Ciò significa che, allo stato attuale, solo pochissimi laboratori al mondo dispongono della tecnologia capace di replicare un simile risultato. La scalabilità è quindi un tema aperto: riusciremo a mantenere errori bassissimi man mano che aumentiamo il numero di qubit e la complessità dei circuiti? Gli ingegneri di Google sottolineano che per arrivare ad applicazioni pienamente pratiche servirà implementare la correzione degli errori quantistici su larga scala. Il prossimo obiettivo dichiarato nel loro percorso è la realizzazione di un qubit logico “perfetto” a lunga durata, ottenuto combinando molti qubit fisici per annullarne gli errori. Solo con qubit stabili e corretti potremo far girare algoritmi più lunghi e affrontare problemi ancora più complessi senza perdere la fedeltà del calcolo.

Willow Chip closeup - Google Quantum AI - credits: Google
Willow Chip closeup – Google Quantum AI – credits: Google

C’è poi una questione di verifica indipendente e fiducia nel risultato. Per definizione, un vantaggio quantistico implica che non possiamo (o non vogliamo, per tempi troppo lunghi) controllare l’output con un calcolo classico. Nel caso di Quantum Echoes, la verificabilità è garantita in teoria dalla possibilità di far girare lo stesso algoritmo su un altro computer quantistico simile. Ma ad oggi non esistono molte macchine comparabili: la verifica, quindi, è stata principalmente interna (ripetendo l’esperimento sullo stesso dispositivo). Nel futuro, man mano che più gruppi avranno hardware potente, ci si aspetta di poter replicare e cross-validare questi risultati quantistici in modo più ampio. Per ora, la comunità scientifica dovrà esaminare indirettamente la correttezza attraverso modelli e simulazioni classiche semplificate (ad esempio su sottosistemi ridotti o casi limite), e attraverso la consistenza dei risultati con la fisica nota, come già fatto confrontando i dati di Quantum Echoes con misure NMR convenzionali sulle stesse molecole.

Un altro interrogativo riguarda l’ambito di validità di questo metodo. Quantum Echoes ha mostrato di saper estrarre informazione strutturale in sistemi dove c’è un’evoluzione caotica a molti corpi e un’eco misurabile. Ma quanto generale è questa tecnica? Funzionerà su qualsiasi sistema quantistico complesso, o solo su quelli che si prestano a una formulazione tipo eco (cioè dove si può implementare un’inversione temporale controllata)? Ad esempio, nel caso di molecole in soluzione si è dovuto preparare un contesto molto specifico (molecole isolate in un cristallo liquido per ridurre interazioni indesiderate. Applicare questo schema a sistemi più rumorosi o aperti potrebbe essere più difficile. Inoltre, il protocollo di inversione temporale richiede di conoscere e controllare con precisione le interazioni tra i qubit o spin: se il modello fisico non è noto con sufficiente accuratezza, l’echo potrebbe non rifocalizzarsi correttamente. Nel loro lavoro, i ricercatori hanno anche usato l’esperimento OTOC come prova di Hamiltonian learning, ossia per dedurre dettagli sull’Hamiltoniana del chip quantistico stesso confrontando le misure con le attese teoriche. Questo è un ulteriore valore aggiunto, ma mostra anche che serve una fine comprensione e modellizzazione del sistema per sfruttare appieno l’algoritmo.

In sintesi, restano sfide scientifiche e tecnologiche: aumentare il numero di qubit utili, ridurre ancora gli errori o correggerli, trovare nuovi algoritmi quantistici per altri problemi, integrare questi metodi con le pratiche sperimentali in vari campi. È un percorso che richiederà probabilmente ancora anni di ricerca e sviluppo.

Verso il futuro: implicazioni e prossimi passi

Malgrado queste incognite, il progresso mostrato da Quantum Echoes è tangibile e apre diverse possibilità. Per la comunità scientifica, avere uno strumento in più come gli OTOC calcolati quantisticamente significa poter investigare sistemi quantistici complessi – dai materiali con proprietà emergenti ai simulatori di fisica fondamentale – con una lente di ingrandimento nuova. Ad esempio, si potrà studiare meglio come l’informazione quantistica si diffonde in vari sistemi (un tema rilevante anche per capire la decoerenza e quindi migliorare i computer quantistici stessi). Oppure, come accennato, sfruttare questi algoritmi per estrarre dati da segnali sperimentali molto intricati (come nel caso della NMR, ma potenzialmente anche in spettroscopia ottica o altri tipi di misure dove compaiono dinamiche complesse).

Per il mondo delle applicazioni, la dimostrazione che un computer quantistico può contribuire concretamente a determinare la struttura di una molecola è di grande interesse. La progettazione di farmaci, la ricerca di nuovi materiali, la chimica delle proteine potrebbero beneficiare in futuro di tecniche simili, dove il computer quantistico diventa parte integrante della cassetta degli attrezzi di laboratorio. Va sottolineato che non si tratta di sostituire gli strumenti classici (il computer quantistico da solo non “misura” una molecola, ha comunque bisogno dei dati sperimentali NMR), ma di complementarli. In prospettiva, potremmo vedere sempre più spesso approcci ibridi quantistico-classici, in cui il punto di forza dei quanti – gestire la complessità di sistemi fortemente correlati – viene usato per analizzare dati che i metodi classici non sanno trattare efficacemente.

Dal punto di vista dei decisori e dei finanziatori, risultati come Quantum Echoes forniscono un segnale chiaro che gli investimenti nella tecnologia quantistica stanno iniziando a ripagare. L’idea di raggiungere un vantaggio quantistico utile non è più solo teoria: c’è un esempio concreto, pubblicato su una rivista prestigiosa e ottenuto da un team multidisciplinare (ingegneri del quantum computing assieme a chimici e fisici NMR). Questo potrebbe stimolare ulteriore supporto alla ricerca quantistica, ma richiede anche gestire con cautela le aspettative. Non siamo ancora all’“internet quantistico” o al computer quantistico universale pienamente operativi, ma stiamo intravedendo primi pezzi del puzzle in cui i quanti fanno cose che i classici non possono fare in ambiti specifici.

In definitiva, Quantum Echoes segna un cambio di passo: dimostra che i computer quantistici possono non solo calcolare più velocemente, ma anche rivelare informazioni nuove su sistemi complessi, grazie ad algoritmi ispirati a concetti profondi della fisica quantistica (come l’eco e l’interferenza). La strada verso applicazioni su larga scala è ancora lunga e incerta – serviranno qubit più affidabili, nuove idee algoritmiche e ulteriori conferme – ma questo risultato offre una prova di principio entusiasmante. Come ogni grande progresso scientifico, apre molte domande oltre a rispondere a quelle iniziali. La comunità ora dispone di un esempio concreto di vantaggio quantistico verificabile su cui costruire: starà ai ricercatori esplorare fin dove si possa arrivare.

Scritto da:

Nicoletta Boldrini

Futures & Foresight Director Leggi articoli Guarda il profilo Linkedin