News

Dall’Università di Osaka una rivoluzione che cambia i computer quantistici

I computer quantistici come è facile intuire sono il futuro dell’informatica e probabilmente anche della conoscenza umana, le macchine da calcolo che basano il proprio funzionamento sulla fisica della particelle infatti offrono una potenza di elaborazione che consente di svolgere funzioni altrimenti impossibili per qualsiasi altra macchina convenzionale.

Una cosa molto interessante è che queste macchine sono tuttora in fase di scoperta ed innovazione, ogni anno infatti la loro tecnologia si evolve e cambia andando a migliorarsi sia come lato costruttivo sia come filosofia che sta dietro, Fujitsu e l’Università di Osaka hanno annunciato recentemente quella che pare essere proprio una grande scoperta, usando una nuova metodologia, sarebbe possibile ridurre notevolmente il numero di qubit necessari per ottenere un computer quantistico in grado di tollerare gli errori, passando da ben 1 milione di qubit ad appena 10.000 qubit, scendendo quindi di due ordini di grandezza.

 

Nuova architettura

I sistemi classici basano il proprio funzionamento sulle porte logiche: NOT, AND e OR, mentre i computer quantistici, seppur sfruttando sempre le porte logiche, ne usano di diverse: CNOT, H, S e T, di cui l’ultima più diffusa e che richiedere un elevato numero di qubit per funzionare, dettaglio che però la espone maggiormente al rischio di errori.

Le porte T sono usate molto nella rotazione del vettore di stato nei calcoli, un’operazione fondamentale che interviene sulla rotazione della fase.

Uno dei principali problemi dei computer quantistici è che le interferenze del mondo esterno possono influenzare il sistema causando errori incorreggibili, ecco dunque che interviene la nuova architettura di Fujitsu, al quale prevede una nuova porta logica specificamente pensata per effettuare la rotazione della fase, quest’ultima riduce significativamente la quantità di operazioni e di qubit necessari per effettuare tale rotazione, fatto che apre alla possibilità di diminuire del 90% il numero di qubit necessari e del 95% il numero di operazioni da effettuare sulle porte logiche. Di conseguenza si è abbassato significativamente anche il tasso di errori, meno operazioni implica meno rischio di errori dunque meno errori, si tratta di ottimizzazione: i ricercatori affermano che sia appena il 13% (ovvero, una riduzione dell’87%) rispetto alle architetture adottate finora.

In termini pratici con 10.000 qubit fisici si arriverebbe a 64 qubit logici immuni agli errori e dunque in grado di compiere calcoli complessi, nelle scienze dei materiali, nella farmacologia, nella biochimica.

Condividi
Pubblicato da
Eduardo Bleve