Nyligen släpptes nyheten att ett företag, Atom Computing, har gjort ett kvantdatorsystem som är baserat på 1180 kvantbitar. Det är det högsta antalet kvantbitar som någon funnits i samma system, med det sagt har även Atom Computings meddelat att felmarginalen i en beräkning som skulle nyttjat alla kvantbitar samtidigt skulle troligen vara för högt. Men för en halvtekniskt bevandrad person som alltid är lite intresserad av att lära sig något nytt, vad är egentligen en “kvantbit” och vad är skillnaden mot en “klassisk bit”.
Nedan är en övergripande bild som är ganska bra och som beskriver skillnaden. Men låt oss först definiera vad kvantbit är och här är en kort summering från Microsoft:
En kvantbit använder ett kvantmekaniskt fenomen kallat superposition för att hitta en linjär kombination av två tillstånd. En klassisk binär bit kan bara representera ett enda binärt värde, till exempel 0 eller 1, vilket betyder att den bara kan ha ett av två möjliga tillstånd. En kvantbit kan däremot representera 0, 1 eller en del av 0 och 1 i superposition med de båda tillstånden, med en viss sannolikhet att den är 0 och en viss sannolikhet att den är 1.
Källa: Microsoft artikel, “Vad är en kvantbit?“
Så för alla som inte är så tekniska så kan man säga att “normal datorberäkning” idag som nyttjas hela tiden när du använder tex din laptop, mobiltelefon etc, bygger på att information sparas och lagras i vad som kallas “ettor” och “nollor”. Det kallas binärt, dvs i grunden att minsta beståndsdelen (bit) endast kan vara “0” eller “1”. Så för att skriva ut information på datorn så att du kan se det så sparas informationen i bitar som är olika långa, dvs olika många ettor och nollor. Ett sätt är att skriva kod som du kan omvandlas till bokstäver (och på samma sätt så klart omvandla bokstäver till kod) kallas ASCII-kod där ASCII står för “American Standard Code for Information Interchange”. Ursprungligen bestod då varje tecken av 7 bitar men för att täcka in även ovanliga bokstäver som tex just “ö”, “ä” etc som inte finns i vissa alfabet så utökades den till 8 bitar. Det innebär att varje bokstav kan beskrivas med en kombination av totalt 8st ettor och nollor. Bokstaven A = 0100 0001.
Så vad är då spännande med kvantbit och kvantberäkning? Jo att den förändrar denna fundamenta att en bit är antingen ett eller noll. En kvantbit kan nämligen vara både och samtidigt men i olika grad. Då tror jag vi alla kan inse att nu kan man dela in information i mycket mindre beståndsdelar vilket i sin tur möjliggör mycket, mycket, mycket (hur mycket är då ännu oklart) snabbare tolkning av information vilket är det som kallas för “kvantberäkning”. Så för lite jämförelse tar lyfter Microsoft det så här:
Källa: Microsoft artikel, “Vad är en kvantbit?“
- Mängden information som ett kvantbitssystem kan representera ökar exponentiellt. Information som 500 kvantbitar enkelt kan representera skulle inte vara möjligt ens med mer än 2^500 klassiska bitar.
- Det skulle ta flera miljoner år för en klassisk dator att hitta primtalsfaktorerna för ett 2 048-bitars tal. Kvantbitar kan utföra beräkningen på bara några minuter.
Så väldigt spännande och jag tänkte inte gå in djupare än så men nu fick ni i alla fall en liten översikt.