È probabile che i futuri computer quantistici miglioreranno in modo significativo la comprensione del gigantesco collisore di particelle del CERN.
CERN/Maximilien Brice
Il potenziale dei computer quantistici è attualmente in discussione in contesti che vanno dalle banche alle navi mercantili, e ora la tecnologia è stata portata ancora più lontano, o meglio, più in basso.
Cento metri sotto il confine franco-svizzero si trova la macchina più grande del mondo, il Large Hadron Collider (LHC) gestito dal laboratorio europeo di fisica delle particelle, CERN. E per comprendere meglio le montagne di dati prodotti da un sistema così colossale, gli scienziati del CERN hanno chiesto assistenza al team quantistico di IBM.
La partnership ha avuto successo: in un nuovo documento, che deve ancora essere sottoposto a revisione paritaria, i ricercatori di IBM hanno stabilito che gli algoritmi quantistici possono aiutare a dare un senso ai dati di LHC, il che significa che è probabile che i futuri computer quantistici stimoleranno significativamente le scoperte scientifiche al CERN.
Con la missione del CERN di capire perché succede qualcosa nell'universo, questo potrebbe avere grandi implicazioni per chiunque sia interessato a tutte le cose: materia, antimateria, materia oscura e così via.
LHC è uno degli strumenti più importanti del CERN per comprendere le leggi fondamentali che governano le particelle e le forze che compongono l'universo. A forma di anello lungo 27 chilometri, il sistema accelera fasci di particelle come protoni ed elettroni appena al di sotto della velocità della luce, prima di farli scontrare in collisioni che gli scienziati osservano grazie a otto rilevatori ad alta precisione che si trovano all'interno dell'acceleratore .
Ogni secondo, le particelle si scontrano circa un miliardo di volte all'interno dell'LHC, producendo un petabyte di dati che attualmente viene elaborato da un milione di CPU in 170 località in tutto il mondo, una diffusione geografica dovuta al fatto che tali enormi quantità di informazioni non possono essere immagazzinato in un solo posto.
Non si tratta solo di memorizzare dati, ovviamente. Tutte le informazioni generate dall'LHC sono quindi disponibili per essere elaborate e analizzate, affinché gli scienziati possano ipotizzare, provare e scoprire.
È così che, osservando le particelle che si frantumano insieme, i ricercatori del CERN hanno scoperto nel 2012 l'esistenza di una particella elementare chiamata bosone di Higgs, che dà massa a tutte le altre particelle fondamentali ed è stata salutata come un importante risultato nel campo della fisica.
Gli scienziati, fino ad ora, hanno utilizzato i migliori strumenti informatici classici disponibili per assistere nel loro lavoro. In pratica, ciò significa utilizzare sofisticati algoritmi di apprendimento automatico in grado di trasmettere in streaming i dati prodotti da LHC per distinguere tra collisioni utili, come quelle che producono bosoni di Higgs, e spazzatura.
“Fino ad ora, gli scienziati hanno utilizzato tecniche classiche di apprendimento automatico per analizzare i dati grezzi catturati dai rilevatori di particelle, selezionando automaticamente i migliori eventi candidati”, hanno scritto i ricercatori IBM Ivano Tavernelli e Panagiotis Barkoutsos in un post sul blog . “Ma pensiamo di poter migliorare notevolmente questo processo di screening, potenziando l'apprendimento automatico con il quantum”.
Man mano che il volume dei dati cresce, i modelli classici di apprendimento automatico si stanno rapidamente avvicinando ai limiti delle loro capacità, ed è qui che i computer quantistici possono svolgere un ruolo utile. I versatili qubit che compongono i computer quantistici possono contenere molte più informazioni rispetto ai bit classici, il che significa che possono visualizzare e gestire molte più dimensioni rispetto ai dispositivi classici.
Un computer quantistico dotato di qubit sufficienti, quindi, potrebbe in linea di principio eseguire calcoli estremamente complessi che richiederebbero secoli prima che i computer classici si risolvano.
Con questo in mente, il CERN ha collaborato con il team quantistico di IBM già nel 2018, con l'obiettivo di scoprire come esattamente le tecnologie quantistiche potrebbero essere applicate per far progredire le scoperte scientifiche.
L'apprendimento automatico quantistico si è presentato rapidamente come una potenziale applicazione. L'approccio consiste nel toccare le capacità dei qubit per espandere quello che è noto come spazio delle funzionalità, ovvero la raccolta di funzionalità su cui l'algoritmo basa la sua decisione di classificazione. Utilizzando uno spazio di funzionalità più ampio, un computer quantistico sarà in grado di vedere schemi ed eseguire attività di classificazione anche in un enorme set di dati, dove un computer classico potrebbe vedere solo rumore casuale.
Applicato alla ricerca del CERN, un algoritmo di apprendimento automatico quantistico potrebbe setacciare i dati grezzi dell'LHC e riconoscere le occorrenze del comportamento dei bosoni di Higgs, ad esempio, laddove i computer classici potrebbero avere difficoltà a vedere qualsiasi cosa.
Il team di IBM ha proceduto alla creazione di un algoritmo quantistico chiamato QSVM (Quantum Support Vector Machine), progettato per identificare le collisioni che producono bosoni di Higgs. L'algoritmo è stato addestrato con un set di dati di test basato sulle informazioni generate da uno dei rilevatori di LHC ed è stato eseguito sia su simulatori quantistici che su hardware quantistico fisico.
In entrambi i casi, i risultati sono stati promettenti. Lo studio di simulazione, eseguito su Google Tensorflow Quantum, IBM Quantum e Amazon Braket, ha utilizzato fino a 20 qubit e un set di dati di 50.000 eventi e si è comportato altrettanto, se non meglio, rispetto alle controparti classiche con lo stesso problema.
L'esperimento hardware è stato eseguito sui dispositivi quantistici di IBM utilizzando 15 qubit e un set di dati di 100 eventi e i risultati hanno mostrato che, nonostante il rumore che influenzava i calcoli quantistici, la qualità della classificazione è rimasta paragonabile alla migliore classica Risultati della simulazione.
“Questo conferma ancora una volta il potenziale dell'algoritmo quantistico per questa classe di problemi”, hanno scritto Tavernelli e Barkoutsos. “La qualità dei nostri risultati punta verso una possibile dimostrazione di un vantaggio quantistico per la classificazione dei dati con macchine vettoriali di supporto quantistico nel prossimo futuro”.
Questo non vuol dire che il vantaggio sia stato ancora dimostrato. L'algoritmo quantistico sviluppato da IBM ha funzionato in modo comparabile ai metodi classici sui processori quantistici limitati che esistono oggi, ma quei sistemi sono ancora nelle loro primissime fasi.
E con solo un piccolo numero di qubit, i computer quantistici di oggi non sono in grado di eseguire calcoli utili. Rimangono anche paralizzati dalla fragilità dei qubit, che sono molto sensibili ai cambiamenti ambientali e sono ancora soggetti a errori.
Piuttosto, IBM e CERN puntano sui futuri miglioramenti dell'hardware quantistico per dimostrare in modo tangibile, e non solo teorico, che gli algoritmi quantistici hanno un vantaggio.
“I nostri risultati mostrano che gli algoritmi di apprendimento automatico quantistico per la classificazione dei dati possono essere precisi quanto quelli classici su computer quantistici rumorosi, aprendo la strada alla dimostrazione di un vantaggio quantistico nel prossimo futuro”, hanno concluso Tavernelli e Barkoutsos.
Gli scienziati del CERN nutrono sicuramente grandi speranze che ciò accada. L'LHC è attualmente in fase di aggiornamento e si prevede che la prossima iterazione del sistema, prevista per il 2027, produrrà un numero di collisioni dieci volte superiore rispetto alla macchina attuale. Il volume di dati che viene generato va solo in una direzione e non passerà molto tempo prima che i processori classici non siano in grado di gestirlo tutto.
Argomenti correlati:
Gestione dei dati