Il calcolo quantistico è spesso raccontato come la prossima rivoluzione in ambito tech, ma è ancora confinato a laboratori di ricerca e sperimentazioni complesse. Tuttavia, un recente progresso nel controllo dei qubit, le unità fondamentali dell’informazione quantistica, potrebbe cambiare radicalmente le regole del gioco.
Una nuova generazione di qubit ha raggiunto tempi di coerenza superiori a quelli dei record precedenti, ovvero la capacità di mantenere l’informazione quantistica intatta per periodi più lunghi. Questo parametro, chiamato coerenza quantistica, è uno dei limiti più critici per l’efficienza e l’affidabilità dei computer quantistici. Nel dettaglio, i ricercatori hanno sviluppato qubit basati su tecnologie ibride – tra semiconduttori, ioni intrappolati e circuiti superconduttivi – riuscendo a estendere il tempo di coerenza fino a vari secondi. Una durata che, fino a pochi anni fa, era impensabile. Per intenderci meglio, molti sistemi attuali restano coerenti solo per frazioni di millisecondo.
Perché la coerenza è la chiave del calcolo quantistico con i ”nuovi qubit”
A differenza del bit classico, che può assumere solo due stati (0 o 1), il qubit può esistere in una sovrapposizione di entrambi, consentendo un tipo di calcolo completamente parallelo e multidimensionale. Ma questo vantaggio si scontra con una fragilità strutturale, ossia che qualsiasi interferenza ambientale – calore, vibrazioni, campi elettromagnetici – può cancellare l’informazione quantistica in un istante. Prolungare la coerenza significa rendere i qubit più affidabili, stabili e integrabili in sistemi reali, superando il limite attuale della “proof of concept” e aprendo la strada a veri computer quantistici funzionanti su larga scala.
Con qubit più longevi, anche gli algoritmi quantistici sono più sofisticati – come quelli per la simulazione di molecole complesse, l’ottimizzazione industriale o la crittografia avanzata – e diventano finalmente implementabili. Questi risultati non implicano che il computer quantistico sia pronto per l’uso quotidiano. La scalabilità rimane uno degli ostacoli principali, poiché realizzare macchine con centinaia o migliaia di qubit coerenti e interconnessi è un traguardo ancora lontano. Inoltre, la correzione degli errori quantistici, fondamentale per qualsiasi calcolo utile, richiede enormi risorse computazionali. Ma un qubit più stabile significa meno errori da correggere – e quindi meno risorse hardware necessarie per ogni operazione.
Giganti del settore come IBM, Google e startup quantistiche stanno ora valutando l’adozione di queste nuove architetture per i loro prototipi di computer quantistici commerciali. Una corsa a metà tra fisica teorica, ingegneria estrema e visione industriale. La strada verso l’informatica quantistica di massa è ancora lunga, ma i progressi sui qubit da record segnano un punto di svolta importante per queste e tante altre aziende.
