IBM og CERN bruger quantum computing til at jage undvigende Higgs-boson

0
118

 Daphne Leprince-Ringuet

Af Daphne Leprince-Ringuet | 22. juli 2021 – 15:09 GMT (16:09 BST) | Emne: Quantum Computing

 1304098-22.jpg

Det er sandsynligt, at fremtidige kvantecomputere vil øge forståelsen af ​​CERNs gigantiske partikelkollider væsentligt.

CERN/Maximilien Brice

Kvantecomputers potentiale diskuteres i øjeblikket i indstillinger, der spænder fra banker til handelsskibe, og nu er teknologien taget endnu længere væk – eller rettere sagt lavere ned.

Hundrede meter under den fransk-schweiziske grænse sidder verdens største maskine, Large Hadron Collider (LHC), der drives af det europæiske laboratorium for partikelfysik, CERN. Og for bedre at forstå de bjerge af data, der produceres af et sådant kolossalt system, har CERNs forskere bedt IBMs kvantehold om hjælp.

Partnerskabet har været vellykket: I et nyt papir, der endnu ikke skal gennemgås peer-review, har IBMs forskere fastslået, at kvantealgoritmer kan hjælpe med at give mening om LHC's data, hvilket betyder, at det er sandsynligt, at fremtidige kvantecomputere vil øge videnskabelige opdagelser betydeligt. hos CERN.

Da CERNs missionerklæring er at forstå, hvorfor der overhovedet sker noget i universet, kan dette have store implikationer for enhver, der er interesseret i alt, hvad der er vigtigt, antimateriale, mørkt stof og så videre.

LHC er et af CERNs vigtigste redskaber til at forstå de grundlæggende love, der styrer de partikler og kræfter, der udgør universet. Formet som en 27 kilometer lang ring accelererer systemet stråler af partikler som protoner og elektroner til lige under lysets hastighed, inden de smadrer disse stråler sammen i kollisioner, som forskere observerer takket være otte højpræcisionsdetektorer, der sidder inde i speederen. .

Hvert sekund kolliderer partikler cirka en milliard gange inde i LHC og producerer en petabyte data, der i øjeblikket behandles af en million CPU'er på 170 steder over hele verden – en geografisk spredning, der skyldes, at så store mængder information ikke kan opbevares kun ét sted.

Det handler selvfølgelig ikke kun om lagring af data. Al den information, der genereres af LHC, er derefter tilgængelig til at blive behandlet og analyseret, så forskere kan antage, bevise og opdage.

På denne måde opdagede CERN-forskere i 2012 eksistensen af ​​en elementær partikel kaldet Higgs-bosonen ved at observere de knusende partikler sammen, hvilket giver alle andre grundlæggende partikler masse og blev hyldet som en vigtig bedrift inden for fysikområdet.

Forskerne har indtil nu brugt de bedste tilgængelige klassiske computerværktøjer til at hjælpe med deres arbejde. I praksis betyder dette at bruge sofistikerede maskinlæringsalgoritmer, der er i stand til at streame gennem de data, der produceres af LHC for at skelne mellem nyttige kollisioner, såsom dem, der producerer Higgs-bosoner og junk.

“Indtil nu har forskere brugt klassiske maskinlæringsteknikker til at analysere rådata fanget af partikeldetektorerne og automatisk udvælge de bedste kandidatbegivenheder,” skrev IBM-forskerne Ivano Tavernelli og Panagiotis Barkoutsos i et blogindlæg. . “Men vi tror, ​​at vi i høj grad kan forbedre denne screeningsproces – ved at øge maskinindlæring med kvante.”

Efterhånden som datamængden vokser, nærmer klassiske maskinlæringsmodeller hurtigt grænserne for deres evner, og det er her kvantecomputere sandsynligvis vil spille en nyttig rolle. De alsidige qubits, der udgør kvantecomputere, kan indeholde meget mere information end klassiske bits, hvilket betyder, at de kan visualisere og håndtere mange flere dimensioner end klassiske enheder.

En kvantecomputer udstyret med nok qubits kunne derfor i princippet køre ekstremt komplekse beregninger, der ville tage århundreder for klassiske computere at løse.

Med dette i tankerne indgik CERN et samarbejde med IBMs kvantehold allerede i 2018 med det formål at finde ud af, hvordan nøjagtigt kvanteteknologier kunne anvendes til at fremme videnskabelige opdagelser.

Quantum machine learning kom hurtigt op som en potentiel applikation. Metoden består i at trykke på qubits 'muligheder for at udvide det såkaldte funktionsrum – samlingen af ​​funktioner, som algoritmen bygger sin klassificeringsbeslutning på. Ved hjælp af et større funktionsrum vil en kvantecomputer være i stand til at se mønstre og udføre klassificeringsopgaver selv i et stort datasæt, hvor en klassisk computer muligvis kun ser tilfældig støj.

Anvendt på CERNs forskning kunne en kvantemaskinelæringsalgoritme sige igennem LHC's rådata og genkende forekomster af Higgs bosons opførsel, for eksempel hvor klassiske computere overhovedet kæmper for at se noget.

IBMs team fortsatte med at oprette en kvantealgoritme kaldet en kvantesupportvektormaskine (QSVM), designet til at identificere kollisioner, der producerer Higgs-bosoner. Algoritmen blev trænet med et testdatasæt baseret på information genereret af en af ​​LHC's detektorer og blev kørt både på kvantesimulatorer og på fysisk kvantehardware.

I begge tilfælde var resultaterne lovende. Simuleringsundersøgelsen, der kørte på Google Tensorflow Quantum, IBM Quantum og Amazon Braket, brugte op til 20 qubits og et datasæt på 50.000 begivenheder og fungerede så godt, hvis ikke bedre, end klassiske modstykker, der kørte det samme problem.

Hardwareeksperimentet blev kørt på IBMs egne kvanteenheder ved hjælp af 15 qubits og et datasæt med 100 begivenheder, og resultaterne viste, at på trods af støj, der påvirker kvanteberegninger, var kvaliteten af ​​klassificeringen sammenlignelig med den bedste klassiske simuleringsresultater.

“Dette bekræfter endnu en gang kvantealgoritmens potentiale for denne klasse af problemer,” skrev Tavernelli og Barkoutsos. “Kvaliteten af ​​vores resultater peger mod en mulig demonstration af en kvantefordel for dataklassificering med kvanteunderstøttende vektormaskiner i den nærmeste fremtid.”

Det betyder ikke, at fordelen endnu er bevist. Kvantealgoritmen udviklet af IBM udførte sammenligneligt med klassiske metoder på de begrænsede kvanteprocessorer, der findes i dag – men disse systemer er stadig i deres meget tidlige stadier.

Og med kun et lille antal qubits er dagens kvantecomputere ikke i stand til at udføre beregninger, der er nyttige. De forbliver også lammet af skrøbeligheden af ​​qubits, som er meget følsomme over for miljøændringer og stadig er tilbøjelige til fejl.

Snarere banker IBM og CERN på fremtidige forbedringer af kvantehardware for at demonstrere håndgribeligt og ikke kun teoretisk at kvantealgoritmer har en fordel.

“Vores resultater viser, at kvante maskinlæringsalgoritmer til dataklassificering kan være lige så nøjagtige som klassiske på støjende kvantecomputere – hvilket baner vejen for demonstration af en kvantefordel i den nærmeste fremtid,” konkluderede Tavernelli og Barkoutsos.

CERN-forskere håber bestemt, at dette vil være tilfældet. LHC er i øjeblikket ved at blive opgraderet, og den næste iteration af systemet, der forventes at komme online i 2027, forventes at producere ti gange så mange kollisioner som den nuværende maskine. Mængden af ​​data, der genereres, går kun én vej – og det varer ikke længe, ​​før klassiske processorer ikke er i stand til at styre det hele.

Relaterede emner:

Datastyring  Daphne Leprince-Ringuet bredde = 40

Af Daphne Leprince-Ringuet | 22. juli 2021 – 15:09 GMT (16:09 BST) | Emne: Quantum Computing