IBM och CERN använder kvantberäkning för att jaga svårfångade Higgs-boson

0
127

 Daphne Leprince-Ringuet

Av Daphne Leprince-Ringuet | 22 juli 2021 – 15:09 GMT (16:09 BST) | Ämne: Quantum Computing

 1304098-22.jpg

Det är troligt att framtida kvantdatorer kommer att öka förståelsen för CERNs gigantiska partikelkolliderare avsevärt.

CERN/Maximilien Brice

Potentialen hos kvantdatorer diskuteras för närvarande i inställningar som sträcker sig från banker till handelsfartyg, och nu har tekniken tagits ännu längre bort – eller snarare lägre.

Hundra meter under den fransk-schweiziska gränsen sitter världens största maskin, Large Hadron Collider (LHC) som drivs av det europeiska laboratoriet för partikelfysik, CERN. Och för att bättre förstå de berg av data som produceras av ett sådant kolossalt system har CERNs forskare frågat IBMs kvantgrupp om lite hjälp.

Partnerskapet har varit framgångsrikt: i ett nytt papper, som ännu inte ska granskas, har IBM: s forskare fastställt att kvantalgoritmer kan hjälpa till att förstå LHC: s data, vilket innebär att det är troligt att framtida kvantdatorer kommer att öka vetenskapliga upptäckter avsevärt. på CERN.

Eftersom CERNs uppdrag är att förstå varför någonting i universum överhuvudtaget händer, kan detta få stora konsekvenser för alla som är intresserade av allt, materia, mörk materia och så vidare.

LHC är ett av CERNs viktigaste verktyg för att förstå de grundläggande lagarna som styr de partiklar och krafter som utgör universum. Formad som en 27 kilometer lång ring accelererar systemet strålar av partiklar som protoner och elektroner till strax under ljusets hastighet, innan de slår samman strålarna i kollisioner som forskare observerar tack vare åtta högprecisionsdetektorer som sitter inne i gaspedalen. .

Varje sekund kolliderar partiklar ungefär en miljard gånger inuti LHC och producerar en petabyte data som för närvarande bearbetas av en miljon processorer på 170 platser över hela världen – en geografisk spridning som beror på att så stora mängder information inte lagras på bara en plats.

Det handlar naturligtvis inte bara om att lagra data. All information som genereras av LHC är sedan tillgänglig för bearbetning och analys, för forskare att hypotesera, bevisa och upptäcka.

Genom att iaktta de krossande partiklarna tillsammans upptäckte CERN-forskare 2012 förekomsten av en elementär partikel som heter Higgs-bosonen, vilket ger alla andra grundläggande partiklar massa och hyllades som en stor prestation inom fysikområdet.

Forskarna har hittills använt de bästa tillgängliga klassiska datorverktygen för att hjälpa till med sitt arbete. I praktiken innebär detta att använda sofistikerade maskininlärningsalgoritmer som kan strömma genom data som produceras av LHC för att skilja mellan användbara kollisioner, som de som producerar Higgs-bosoner och skräp.

“Fram till nu har forskare använt klassiska maskininlärningstekniker för att analysera rådata som fångats av partikeldetektorerna och automatiskt markerat de bästa kandidathändelserna”, skrev IBM-forskarna Ivano Tavernelli och Panagiotis Barkoutsos i ett blogginlägg. . “Men vi tror att vi kan förbättra denna screeningprocess – genom att öka maskininlärningen med kvant.”

När datamängden växer närmar sig klassiska maskininlärningsmodeller snabbt gränserna för deras kapacitet, och det är här kvantdatorer sannolikt kommer att spela en användbar roll. De mångsidiga qubits som utgör kvantdatorer kan innehålla mycket mer information än klassiska bitar, vilket innebär att de kan visualisera och hantera många fler dimensioner än klassiska enheter.

En kvantdator utrustad med tillräckligt med qubits kan därför i princip köra extremt komplexa beräkningar som skulle ta århundraden för klassiska datorer att lösa.

Med detta i åtanke samarbetade CERN med IBMs kvantgrupp redan 2018, i syfte att ta reda på hur exakt kvantteknologier kunde användas för att främja vetenskapliga upptäckter.

Quantum machine learning kom snabbt upp som en potentiell applikation. Tillvägagångssättet består av att knacka på qubits kapacitet för att utvidga det som kallas funktionsutrymmet – samlingen av funktioner som algoritmen baserar sitt klassificeringsbeslut på. Med hjälp av ett större funktionsutrymme kommer en kvantdator att kunna se mönster och utföra klassificeringsuppgifter även i en enorm dataset, där en klassisk dator bara kan se slumpmässigt brus.

Tillämpad på CERNs forskning kan en kvantmaskininlärningsalgoritm sikta igenom LHC: s rådata och känna igen förekomster av Higgs bosons beteende, till exempel där klassiska datorer kan kämpa för att se någonting alls.

IBMs team fortsatte med att skapa en kvantalgoritm som kallas en kvantstödvektormaskin (QSVM), utformad för att identifiera kollisioner som producerar Higgs-bosoner. Algoritmen utbildades med ett testdataset baserat på information genererad av en av LHC: s detektorer och kördes både på kvantsimulatorer och på fysisk kvanthårdvara.

I båda fallen var resultaten lovande. Simuleringsstudien, som kördes på Google Tensorflow Quantum, IBM Quantum och Amazon Braket, använde upp till 20 qubits och en datamängd på 50 000 händelser och presterade också, om inte bättre, än klassiska motsvarigheter som kör samma problem.

Maskinvaruexperimentet kördes på IBMs egna kvantapparater med 15 qubits och en 100-händelse dataset, och resultaten visade att, trots bullret som påverkade kvantberäkningarna, var kvaliteten på klassificeringen jämförbar med den bästa klassiska Simuleringsresultat.

“Detta bekräftar än en gång kvantalgoritmens potential för denna klass av problem”, skrev Tavernelli och Barkoutsos. “Kvaliteten på våra resultat pekar mot en möjlig demonstration av en kvantfördel för dataklassificering med kvantstödvektormaskiner inom en snar framtid.”

Det betyder inte att fördelen har bevisats ännu. Kvantalgoritmen som utvecklats av IBM utförde jämförbart med klassiska metoder på de begränsade kvantprocessorer som finns idag – men dessa system är fortfarande i sina mycket tidiga skeden.

Och med bara ett litet antal qubits kan dagens kvantdatorer inte utföra beräkningar som är användbara. De förblir också förlamade av sårbarheten hos qubits, som är mycket känsliga för miljöförändringar och fortfarande är benägna för fel.

Snarare, IBM och CERN tar hänsyn till framtida förbättringar av kvantehårdvara för att visa påtagligt och inte bara teoretiskt att kvantalgoritmer har en fördel.

“Våra resultat visar att kvantmaskininlärningsalgoritmer för dataklassificering kan vara lika exakta som klassiska på bullriga kvantdatorer – vilket banar väg för demonstrationen av en kvantfördel inom en snar framtid”, avslutade Tavernelli och Barkoutsos.

CERN-forskare hoppas verkligen att detta kommer att vara fallet. LHC uppgraderas för närvarande och nästa iteration av systemet förväntas producera tio gånger så många kollisioner som den nuvarande maskinen. Datamängden som genereras går bara en väg – och det tar inte lång tid innan klassiska processorer inte kan hantera allt.

Relaterade ämnen:

Datahantering  Daphne Leprince-Ringuet bredd = 40

Av Daphne Leprince-Ringuet | 22 juli 2021 – 15:09 GMT (16:09 BST) | Ämne: Quantum Computing