qubit
<kubìt> s. m. – (comp. diqu[antum] bit) Unità minima di informazione che può essere elaborata da un calcolatore quantistico, detta anche bit quantistico. Mentre nella scienza dell’informazione classica l’elemento fondamentale è il bit, che può assumere due soli valori, 0 e 1, l’analogo nella teoria quantistica è il q., ossia la funzione d’onda di un sistema che possa esistere in due stati, per es. lo spin su (stato 1) e lo spin giù (stato 0). La funzione d’onda può rappresentare uno qualsiasi degli infiniti stati di sovrapposizione coerente degli stati 0 e 1 e, quindi, mentre il bit classico fornisce a seguito di un’operazione uno soltanto dei due possibili valori, il q. permette di effettuare più operazioni contemporaneamente analizzando tutte le possibili soluzioni e rappresenta così la caratteristica basilare per un efficiente calcolo parallelo. Due q. possono trovarsi in una sovrapposizione quantistica di 4 stati e tre q. in una di 8. In generale, un computer quantistico con N q. può trovarsi simultaneamente in 2N stati, da confrontarsi con il fatto che un normale computer può trovarsi soltanto in uno dei 2N stati alla volta.