IBM et le CERN utilisent l'informatique quantique pour traquer l'insaisissable boson de Higgs

0
155

Daphne Leprince-Ringuet

Par Daphné Leprince-Ringuet | 22 juillet 2021 — 15:09 GMT (16:09 BST) | Sujet : Informatique quantique

1304098-22.jpg

Il est probable que les futurs ordinateurs quantiques amélioreront considérablement la compréhension du gigantesque collisionneur de particules du CERN.

CERN/Maximilien Brice

Le potentiel des ordinateurs quantiques est actuellement discuté dans des contextes allant des banques aux navires marchands, et maintenant la technologie a été poussée encore plus loin – ou plutôt, plus bas.

À cent mètres sous la frontière franco-suisse se trouve la plus grande machine au monde, le Large Hadron Collider (LHC) exploité par le laboratoire européen de physique des particules, le CERN. Et pour mieux comprendre les montagnes de données produites par un système aussi colossal, les scientifiques du CERN ont demandé de l'aide à l'équipe quantique d'IBM.

Le partenariat a été un succès : dans un nouvel article, qui n'a pas encore été évalué par des pairs, les chercheurs d'IBM ont établi que les algorithmes quantiques peuvent aider à donner un sens aux données du LHC, ce qui signifie qu'il est probable que les futurs ordinateurs quantiques stimuleront considérablement les découvertes scientifiques. au CERN.

La mission du CERN étant de comprendre pourquoi tout ce qui se passe dans l'univers, cela pourrait avoir de grandes implications pour quiconque s'intéresse à tout ce qui concerne la matière, l'antimatière, la matière noire, etc.

Le LHC est l'un des outils les plus importants du CERN pour comprendre les lois fondamentales qui régissent les particules et les forces qui composent l'univers. En forme d'anneau de 27 kilomètres de long, le système accélère des faisceaux de particules comme des protons et des électrons juste en dessous de la vitesse de la lumière, avant de briser ces faisceaux ensemble dans des collisions que les scientifiques observent grâce à huit détecteurs de haute précision qui se trouvent à l'intérieur de l'accélérateur .

Chaque seconde, des particules entrent en collision environ un milliard de fois à l'intérieur du LHC, produisant un pétaoctet de données qui sont actuellement traitées par un million de processeurs dans 170 emplacements à travers le monde – une répartition géographique qui est due au fait que d'aussi énormes quantités d'informations ne peuvent pas être stocké dans un seul endroit.

Il ne s'agit pas seulement de stocker des données, bien sûr. Toutes les informations générées par le LHC sont ensuite disponibles pour être traitées et analysées, pour que les scientifiques émettent des hypothèses, prouvent et découvrent.

C'est ainsi qu'en observant les particules se briser ensemble, des chercheurs du CERN ont découvert en 2012 l'existence d'une particule élémentaire appelée boson de Higgs, qui donne la masse à toutes les autres particules fondamentales et a été saluée comme une réalisation majeure dans le domaine de la physique.

Les scientifiques, jusqu'à présent, ont utilisé les meilleurs outils informatiques classiques disponibles pour les aider dans leur travail. En pratique, cela signifie utiliser des algorithmes d'apprentissage automatique sophistiqués capables de diffuser les données produites par le LHC pour faire la distinction entre les collisions utiles, telles que celles qui produisent les bosons de Higgs, et les déchets indésirables.

“Jusqu'à présent, les scientifiques utilisaient des techniques classiques d'apprentissage automatique pour analyser les données brutes capturées par les détecteurs de particules, en sélectionnant automatiquement les meilleurs événements candidats”, ont écrit les chercheurs d'IBM Ivano Tavernelli et Panagiotis Barkoutsos dans un article de blog. . “Mais nous pensons que nous pouvons considérablement améliorer ce processus de sélection – en renforçant l'apprentissage automatique avec le quantum.”

À mesure que le volume de données augmente, les modèles d'apprentissage automatique classiques approchent rapidement des limites de leurs capacités, et c'est là que les ordinateurs quantiques sont susceptibles de jouer un rôle utile. Les qubits polyvalents qui composent les ordinateurs quantiques peuvent contenir beaucoup plus d'informations que les bits classiques, ce qui signifie qu'ils peuvent visualiser et gérer beaucoup plus de dimensions que les appareils classiques.

Un ordinateur quantique équipé de suffisamment de qubits pourrait donc en principe exécuter des calculs extrêmement complexes qui prendraient des siècles aux ordinateurs classiques à résoudre.

Dans cet esprit, le CERN s'est associé à l'équipe quantique d'IBM dès 2018, dans le but de découvrir comment exactement les technologies quantiques pourraient être appliquées pour faire avancer les découvertes scientifiques.

L'apprentissage automatique quantique est rapidement apparu comme une application potentielle. L'approche consiste à exploiter les capacités des qubits pour étendre ce que l'on appelle l'espace des fonctionnalités – la collection de fonctionnalités sur lesquelles l'algorithme fonde sa décision de classification. En utilisant un espace de fonctionnalités plus grand, un ordinateur quantique sera capable de voir des modèles et d'effectuer des tâches de classification même dans un énorme ensemble de données, où un ordinateur classique pourrait ne voir que du bruit aléatoire.

Appliqué aux recherches du CERN, un algorithme d'apprentissage automatique quantique pourrait passer au crible les données brutes du LHC et reconnaître les occurrences du comportement des bosons de Higgs, par exemple, où les ordinateurs classiques pourraient avoir du mal à voir quoi que ce soit.

L'équipe d'IBM a ensuite créé un algorithme quantique appelé machine à vecteur de support quantique (QSVM), conçu pour identifier les collisions qui produisent les bosons de Higgs. L'algorithme a été entraîné avec un ensemble de données de test basé sur les informations générées par l'un des détecteurs du LHC, et a été exécuté à la fois sur des simulateurs quantiques et sur du matériel quantique physique.

Dans les deux cas, les résultats étaient prometteurs. L'étude de simulation, qui s'est déroulée sur Google Tensorflow Quantum, IBM Quantum et Amazon Braket, a utilisé jusqu'à 20 qubits et un ensemble de données de 50 000 événements, et a fonctionné aussi bien, sinon mieux, que ses homologues classiques exécutant le même problème.

L'expérience matérielle a été réalisée sur les propres appareils quantiques d'IBM en utilisant 15 qubits et un ensemble de données de 100 événements, et les résultats ont montré que, malgré le bruit affectant les calculs quantiques, la qualité de la classification restait comparable aux meilleurs classiques résultats de la simulation.

“Cela confirme une fois de plus le potentiel de l'algorithme quantique pour cette classe de problèmes”, ont écrit Tavernelli et Barkoutsos. “La qualité de nos résultats indique une démonstration possible d'un avantage quantique pour la classification des données avec des machines à vecteurs de support quantique dans un avenir proche.”

Cela ne veut pas dire que l'avantage n'a pas encore été prouvé. L'algorithme quantique développé par IBM a fonctionné de manière comparable aux méthodes classiques sur les processeurs quantiques limités qui existent aujourd'hui – mais ces systèmes en sont encore à leurs tout débuts.

Et avec seulement un petit nombre de qubits, les ordinateurs quantiques d'aujourd'hui ne sont pas capables d'effectuer des calculs utiles. Ils restent également paralysés par la fragilité des qubits, très sensibles aux changements environnementaux et encore sujets aux erreurs.

Au contraire, IBM et le CERN misent sur les futures améliorations du matériel quantique pour démontrer concrètement, et pas seulement théoriquement, que les algorithmes quantiques ont un avantage.

“Nos résultats montrent que les algorithmes d'apprentissage automatique quantique pour la classification des données peuvent être aussi précis que les algorithmes classiques sur des ordinateurs quantiques bruyants, ouvrant la voie à la démonstration d'un avantage quantique dans un avenir proche”, ont conclu Tavernelli et Barkoutsos.

Les scientifiques du CERN ont certainement de grands espoirs que ce soit le cas. Le LHC est actuellement en cours de modernisation et la prochaine itération du système, qui devrait être mise en service en 2027, devrait produire dix fois plus de collisions que la machine actuelle. Le volume de données généré ne va que dans un sens – et il ne faudra pas longtemps avant que les processeurs classiques soient incapables de tout gérer.

Sujets connexes :

Gestion des données Daphne Leprince-Ringuet

Par Daphne Leprince-Ringuet | 22 juillet 2021 — 15:09 GMT (16:09 BST) | Sujet : Informatique quantique