Nuovo supercomputer dell'Università di Edimburgo alimentato da Nvidia

0
119

Asha Barbaschow

Di Asha Barbaschow | 28 giugno 2021 — 07:00 GMT (08:00 BST) | Argomento: innovazione

L'Università di Edimburgo ha ricevuto una nuova piattaforma di calcolo ad alte prestazioni, denominata Tursa, che è stata ottimizzata per la fisica computazionale delle particelle.

Il nuovo sistema è alimentato dalla piattaforma di calcolo ad alte prestazioni Nvidia HGX ed è il terzo di quattro supercomputer DiRAC “di prossima generazione” annunciati.

DiRAC è la struttura di supercalcolo integrata del Regno Unito per la modellazione teorica e basata su HPC ricerca in astronomia, cosmologia, fisica delle particelle e fisica nucleare. Gestirà il sistema Tursa.

Tursa consentirà ai ricercatori di eseguire calcoli ad altissima precisione delle proprietà delle particelle subatomiche necessarie per interpretare i dati provenienti da esperimenti di fisica delle particelle massicce, come il Large Hadron Collider .

“Tursa è progettato per affrontare sfide di ricerca uniche per sbloccare nuove possibilità di modellazione scientifica e simulazione”, ha affermato Luigi Del Debbio, professore di fisica teorica presso l'Università di Edimburgo e responsabile del progetto per l'implementazione del DiRAC-3.

Tursa è realizzato con Atos e includerà 448 GPU Nvidia A100 Tensor Core e includerà quattro adattatori di rete InfiniBand Nvidia HDR 200 Gb/s per nodo.

Nell'annunciare le ultime novità dalla sua partnership con DiRAC, Nvidia ha anche utilizzato il Mobile World Congress per dire che stava “sovrascrivendo” la piattaforma di supercalcolo Nvidia HGX AI, facendo affidamento sulla sua combinazione di fusione di AI e HPC per entrare in ulteriori settori. p>”HPC sta andando ovunque, l'intelligenza artificiale sta andando ovunque, ogni azienda nel mondo utilizzerà il supercalcolo per accelerare le proprie attività”, ha detto ai media Gilad Shainer, vicepresidente senior del networking di Nvidia.

“Il supercalcolo serve sempre più applicazioni… la gestione del supercomputer diventa quindi molto più complicata. È necessario portare sicurezza nel supercalcolo perché è necessario isolare gli utenti, isolare tra le applicazioni, proteggere tra gli utenti, è necessario proteggere i dati .”

Nvidia ha aggiunto tre tecnologie alla sua piattaforma HGX: la GPU Nvidia A100 PCIe da 80 GB, la rete Nvidia NDR 400G InfiniBand e il software Nvidia Magnum IOTM GPUDirect Storage.

image-nvidia-a100-80gb -pcie.jpg

Nvidia A100 80Gb PCle

Immagine: Nvidia

Le GPU Nvidia A100 Tensor Core, ha affermato la società, offrono “un'accelerazione HPC senza precedenti” per risolvere complesse sfide di intelligenza artificiale, analisi dei dati, training di modelli e simulazione rilevanti per l'HPC industriale. Le GPU PCIe A100 da 80 GB aumentano la larghezza di banda della memoria GPU del 25% rispetto all'A100 da 40 GB, fino a 2 TB/s, e forniscono 80 GB di memoria HBM2e a larghezza di banda elevata.

“Quando costruiamo un supercomputer, è sempre una questione di prestazioni… ma è qui che iniziamo a incontrare un grosso problema”, ha detto Shainer. “Il modo per risolverlo è utilizzare la GPU… portare la GPU nel supercomputer e utilizzare la GPU per eseguire tutta la gestione dell'infrastruttura… dalla CPU.”

Il supporto dei partner Nvidia per PCIe A100 da 80 GB include Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT e Supermicro. La piattaforma HGX con GPU basate su A100 interconnesse tramite NVLink è disponibile anche tramite i servizi cloud di Amazon Web Services, Microsoft Azure e Oracle Cloud Infrastructure.

Nvidia NDR 400G InfiniBand networking, nel frattempo, è pubblicizzato come scalabilità delle prestazioni per affrontare le enormi sfide nei sistemi HPC industriali e scientifici.

“Questi sistemi portano la nostra larghezza di banda al livello successivo. Stiamo spostando il data center dall'esecuzione da 200 Gb/s a 400 Gb/s per poter spostare i dati più velocemente, per poter alimentare le GPU per aumentare ciò che possiamo fare”, ha affermato Shainer.

I sistemi di switch a configurazione fissa Nvidia Quantum-2 forniscono 64 porte di NDR 400 Gb/s InfiniBand per porta, o 128 porte di NDR200, fornendo una densità di porte tre volte superiore rispetto a HDR InfiniBand , ha spiegato.

Gli switch modulari Nvidia Quantum-2, ha continuato, forniscono configurazioni di porte scalabili fino a 2.048 porte di NDR 400 Gb/s InfiniBand – o 4.096 porte di NDR200 – con un throughput bidirezionale totale di 1,64 petabit al secondo. Lo switch a 2.048 porte offre una scalabilità 6,5 volte maggiore rispetto alla generazione precedente, con la possibilità di connettere più di un milione di nodi.

Gli switch dovrebbero essere campionati entro la fine dell'anno. Si prevede che anche i produttori di infrastrutture come Atos, DDN, Dell Technologies, HPE e Lenovo integreranno gli switch InfiniBand Quantum-2 NDR 400 Gb/s nelle loro offerte aziendali e HPC.

Descritto come “prestazioni senza rivali per carichi di lavoro complessi”, Magnum IO GPUDirect Storage, ha affermato Nvidia, consente l'accesso diretto alla memoria tra la memoria della GPU e lo storage.

“Il percorso diretto consente alle applicazioni di beneficiare di una latenza I/O inferiore e di utilizzare l'intera larghezza di banda degli adattatori di rete riducendo il carico di utilizzo sulla CPU e gestendo l'impatto dell'aumento del consumo di dati”, ha affermato Nvidia .

Nvidia e Google Cloud hanno anche annunciato in occasione del Mobile World Congress l'intenzione di istituire un laboratorio di innovazione AI-on-5G.

La coppia lo pubblicizza come un'opportunità per gli attori dell'infrastruttura di rete e i partner di software AI per sviluppare, testare, e adottare soluzioni che “aiuteranno ad accelerare la creazione di città intelligenti, fabbriche intelligenti e altre applicazioni avanzate di 5G e intelligenza artificiale”.

La società ha anche annunciato che la sua piattaforma di elaborazione AI-on-5G Aerial A100 di “nuova generazione” incorporerà 16 core CPU basati su Arm in Nvidia BlueField-3 A100.

ULTIMI DA NVIDIA

Il CEO di Nvidia evita l'RTX mobile a favore di GeForce NowI CEO di Arm e NVIDIA discutono di una controversa fusione: “Indipendenza non equivale a forza” C'è un'apertura per ARM nei server in questo momentoNvidia aggiunge Base Command con SuperPod come servizio, pianifica sistemi Arm certificati nel 2022Nvidia acquisisce la società di mappatura AV DeepMap per rafforzare la sua piattaforma DRIVENvidia rende Fleet Command generalmente disponibile con AI Launchpad presto in arrivo

Argomenti correlati:

CXO Digital Transformation Tech Industry Smart Cities Cloud Asha Barbaschow

Di Asha Barbaschow | 28 giugno 2021 — 07:00 GMT (08:00 BST) | Tema: Innovazione