IBM und CERN nutzen Quantencomputer, um das schwer fassbare Higgs-Boson zu jagen

0
101

Daphne Leprince-Ringuet

Von Daphne Leprince-Ringuet | 22. Juli 2021 – 15:09 GMT (16:09 BST) | Thema: Quantencomputing

1304098-22.jpg

Es ist wahrscheinlich, dass zukünftige Quantencomputer das Verständnis des gigantischen Teilchenbeschleunigers des CERN erheblich verbessern werden.

CERN/Maximilien Brice

Das Potenzial von Quantencomputern wird derzeit von Banken bis hin zu Handelsschiffen diskutiert, und jetzt wurde die Technologie noch weiter entfernt – oder besser gesagt, tiefer.

Hundert Meter unterhalb der französisch-schweizerischen Grenze steht die größte Maschine der Welt, der Large Hadron Collider (LHC), der vom europäischen Labor für Teilchenphysik CERN betrieben wird. Und um die Berge von Daten, die von einem solchen kolossalen System produziert werden, besser zu verstehen, haben die Wissenschaftler des CERN das Quantenteam von IBM um Unterstützung gebeten.

Die Partnerschaft war erfolgreich: In einem neuen Paper, das noch von Experten begutachtet werden muss, haben die Forscher von IBM festgestellt, dass Quantenalgorithmen helfen können, die Daten des LHC zu verstehen am CERN.

Da die Mission des CERN darin besteht, zu verstehen, warum überhaupt etwas im Universum passiert, könnte dies große Auswirkungen auf jeden haben, der sich für Materie, Antimaterie, Dunkle Materie und so weiter interessiert.

Der LHC ist eines der wichtigsten Werkzeuge des CERN zum Verständnis der grundlegenden Gesetze, die die Teilchen und Kräfte bestimmen, aus denen das Universum besteht. Das System hat die Form eines 27 Kilometer langen Rings und beschleunigt Strahlen von Teilchen wie Protonen und Elektronen auf knapp unter Lichtgeschwindigkeit, bevor sie diese Strahlen in Kollisionen zusammenschlagen, die Wissenschaftler dank acht hochpräziser Detektoren im Inneren des Beschleunigers beobachten .

Jede Sekunde kollidieren Partikel im LHC ungefähr eine Milliarde Mal und produzieren ein Petabyte an Daten, die derzeit von einer Million CPUs an 170 Standorten auf der ganzen Welt verarbeitet werden – eine geografische Streuung, die darauf zurückzuführen ist, dass solch riesige Informationsmengen nicht sein können nur an einem Ort gespeichert.

Es geht natürlich nicht nur darum, Daten zu speichern. Alle vom LHC generierten Informationen stehen dann zur Verarbeitung und Analyse zur Verfügung, damit Wissenschaftler Hypothesen aufstellen, beweisen und entdecken können.

So entdeckten CERN-Forscher 2012 durch die gemeinsame Beobachtung der zerschmetternden Teilchen die Existenz eines Elementarteilchens namens Higgs-Boson, das allen anderen fundamentalen Teilchen Masse verleiht und als große Errungenschaft auf dem Gebiet der Physik gefeiert wurde.

Die Wissenschaftler haben bisher die besten verfügbaren klassischen Computerwerkzeuge verwendet, um ihre Arbeit zu unterstützen. In der Praxis bedeutet dies, dass ausgeklügelte maschinelle Lernalgorithmen verwendet werden, die in der Lage sind, die vom LHC erzeugten Daten zu streamen, um zwischen nützlichen Kollisionen, die beispielsweise Higgs-Bosonen produzieren, und Müll zu unterscheiden.

“Bis jetzt haben Wissenschaftler klassische Techniken des maschinellen Lernens verwendet, um von den Teilchendetektoren erfasste Rohdaten zu analysieren und automatisch die besten Kandidatenereignisse auszuwählen”, schreiben die IBM-Forscher Ivano Tavernelli und Panagiotis Barkoutsos in einem Blogbeitrag . „Aber wir glauben, dass wir diesen Screening-Prozess erheblich verbessern können – indem wir das maschinelle Lernen mit Quanten fördern.“

Mit zunehmender Datenmenge stoßen klassische Modelle des maschinellen Lernens schnell an ihre Grenzen, und hier dürften Quantencomputer eine sinnvolle Rolle spielen. Die vielseitigen Qubits, aus denen Quantencomputer bestehen, können viel mehr Informationen speichern als klassische Bits, was bedeutet, dass sie viel mehr Dimensionen visualisieren und verarbeiten können als klassische Geräte.

Ein mit genügend Qubits ausgestatteter Quantencomputer könnte daher im Prinzip extrem komplexe Berechnungen durchführen, deren Auflösung bei klassischen Computern Jahrhunderte dauern würde.

Vor diesem Hintergrund hat sich das CERN bereits 2018 mit dem Quantenteam von IBM zusammengetan, um herauszufinden, wie genau Quantentechnologien eingesetzt werden können, um wissenschaftliche Entdeckungen voranzutreiben.

Quantenmaschinelles Lernen kam schnell als potenzielle Anwendung auf. Der Ansatz besteht darin, die Fähigkeiten der Qubits zu nutzen, um den sogenannten Merkmalsraum zu erweitern – die Sammlung von Merkmalen, auf die der Algorithmus seine Klassifizierungsentscheidung stützt. Mit einem größeren Merkmalsraum wird ein Quantencomputer in der Lage sein, selbst in einem riesigen Datensatz, in dem ein klassischer Computer nur zufälliges Rauschen sieht, Muster zu sehen und Klassifizierungsaufgaben durchzuführen.

Angewandt auf die Forschung des CERN könnte ein Quanten-Maschinenlernalgorithmus die Rohdaten des LHC durchsuchen und beispielsweise das Auftreten von Higgs-Bosonen erkennen, bei denen klassische Computer möglicherweise Schwierigkeiten haben, überhaupt etwas zu sehen.

Das Team von IBM entwickelte einen Quantenalgorithmus namens Quantum Support Vector Machine (QSVM), der Kollisionen identifizieren soll, die Higgs-Bosonen produzieren. Der Algorithmus wurde mit einem Testdatensatz trainiert, der auf Informationen basiert, die von einem der Detektoren des LHC generiert wurden, und wurde sowohl auf Quantensimulatoren als auch auf physischer Quantenhardware ausgeführt.

In beiden Fällen waren die Ergebnisse vielversprechend. Die Simulationsstudie, die auf Google Tensorflow Quantum, IBM Quantum und Amazon Braket lief, verwendete bis zu 20 Qubits und einen Datensatz mit 50.000 Ereignissen und schnitt genauso gut, wenn nicht sogar besser ab als klassische Gegenstücke mit dem gleichen Problem.

Das Hardware-Experiment wurde auf IBMs eigenen Quantengeräten mit 15 Qubits und einem Datensatz mit 100 Ereignissen durchgeführt. Die Ergebnisse zeigten, dass die Qualität der Klassifizierung trotz des Rauschens, das die Quantenberechnungen beeinflusste, mit der besten klassischen vergleichbar blieb Simulationsergebnisse.

„Dies bestätigt einmal mehr das Potenzial des Quantenalgorithmus für diese Klasse von Problemen“, schreiben Tavernelli und Barkoutsos. “Die Qualität unserer Ergebnisse deutet auf eine mögliche Demonstration eines Quantenvorteils für die Datenklassifizierung mit Quanten-Support-Vektor-Maschinen in naher Zukunft hin.”

Das heißt nicht, dass der Vorteil noch bewiesen ist. Der von IBM entwickelte Quantenalgorithmus funktionierte auf den heute existierenden begrenzten Quantenprozessoren vergleichbar mit klassischen Methoden – aber diese Systeme befinden sich noch in einem sehr frühen Stadium.

Und mit nur wenigen Qubits sind heutige Quantencomputer nicht in der Lage, sinnvolle Berechnungen durchzuführen. Sie bleiben auch durch die Zerbrechlichkeit von Qubits verkrüppelt, die sehr empfindlich auf Umweltveränderungen reagieren und immer noch fehleranfällig sind.

Vielmehr setzen IBM und CERN auf zukünftige Verbesserungen der Quantenhardware, um greifbar und nicht nur theoretisch zu demonstrieren, dass Quantenalgorithmen einen Vorteil haben.

„Unsere Ergebnisse zeigen, dass Algorithmen für das maschinelle Lernen von Quanten zur Datenklassifizierung genauso genau sein können wie die klassischen auf lauten Quantencomputern – und damit den Weg für die Demonstration eines Quantenvorteils in naher Zukunft ebnen“, schlossen Tavernelli und Barkoutsos.

Die CERN-Wissenschaftler haben sicherlich große Hoffnungen, dass dies der Fall sein wird. Der LHC wird derzeit aufgerüstet, und die nächste Iteration des Systems, die 2027 online gehen soll, wird voraussichtlich zehnmal so viele Kollisionen verursachen wie die aktuelle Maschine. Die dabei anfallende Datenmenge geht nur in eine Richtung – und schon bald werden klassische Prozessoren das alles nicht mehr bewältigen können.

Verwandte Themen:

Datenverwaltung Daphne Leprince-Ringuet

Von Daphne Leprince-Ringuet | 22. Juli 2021 – 15:09 GMT (16:09 BST) | Thema: Quantencomputer