New University of Edinburgh superdator som drivs av Nvidia

0
116

 Asha Barbaschow

Av Asha Barbaschow | 28 juni 2021 – 07:00 GMT (08:00 BST) | Ämne: Innovation

University of Edinburgh har fått en ny högpresterande datorplattform, kallad Tursa, som har optimerats för beräkningspartikelfysik.

Det nya systemet drivs av Nvidia HGX högpresterande datorplattform och är den tredje av fyra DiRAC “nästa generations” superdatorer som tillkännages.

DiRAC är Storbritanniens integrerade superdatoranläggning för teoretisk modellering och HPC-baserad forskning inom astronomi, kosmologi, partikelfysik och kärnfysik. Det kommer att köra Tursa-systemet.

Tursa gör det möjligt för forskare att utföra ultrahögprecisionsberäkningar av egenskaperna hos subatomära partiklar som behövs för att tolka data från massiva partikelfysikexperiment, till exempel Large Hadron Collider .

“Tursa är utformad för att ta itu med unika forskningsutmaningar för att låsa upp nya möjligheter för vetenskaplig modellering och simulering”, säger professor i teoretisk fysik vid University of Edinburgh och projektledare för utplaceringen av DiRAC-3 Luigi Del Debbio.

Tursa är byggt med Atos och kommer att innehålla 448 Nvidia A100 Tensor Core GPU: er och inkluderar fyra Nvidia HDR 200Gb/s InfiniBand-nätverkskort per nod.

När Nvidia meddelade det senaste från sitt partnerskap med DiRAC, använde Nvidia också Mobile World Congress för att säga att det “turboladdar” Nvidia HGX AI superdatorplattform, och baserade på sin kombination av att smälta AI med HPC för att bryta sig in i ytterligare industrier.

< p> “HPC går överallt, AI går överallt, alla företag i världen kommer att använda superdatorer för att påskynda sina affärer”, berättade Gilad Shainer, Nvidias senior vice president för nätverkande, till media.

“Supercomputing [betjänar] fler och fler applikationer … hantering av superdator blir därför mycket mer komplicerat. Du måste ta med säkerhet till superdator eftersom du behöver isolera användarna, isolera mellan applikationerna, skydda mellan användarna, du måste skydda data . “

Nvidia har lagt till tre tekniker till sin HGX-plattform: Nvidia A100 80 GB PCIe GPU, Nvidia NDR 400G InfiniBand-nätverk och Nvidia Magnum IOTM GPUDirect Storage-programvara.

 image-n80 -pcie.jpg

Nvidia A100 80Gb PCle

Bild: Nvidia

Nvidia A100 Tensor Core GPU: er, säger företaget, levererar “oöverträffad HPC-acceleration” för att lösa komplexa AI, dataanalys, modellutbildning och simuleringsutmaningar som är relevanta för industriell HPC. A100 80 GB PCIe GPU: er ökar GPU-minnesbandbredden 25% jämfört med A100 40 GB, till 2 TB/s och ger 80 GB HBM2e-minne med hög bandbredd.

“När vi bygger en superdator handlar det alltid om prestanda … men det är här vi börjar slå ett stort problem, säger Shainer. “Sättet att lösa det är att använda GPU … ta med GPU in i superdatorn och använd GPU för att köra all infrastrukturhantering … från CPU.”

Nvidia-partnersupport för A100 80 GB PCIe inkluderar Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT och Supermicro. HGX-plattformen med A100-baserade GPU: er som är sammankopplade via NVLink är också tillgänglig via molntjänster från Amazon Web Services, Microsoft Azure och Oracle Cloud Infrastructure. för att ta itu med de stora utmaningarna inom industriella och vetenskapliga HPC-system.

“Dessa system driver vår bandbredd till nästa nivå. Vi flyttar datacentret från att köra på 200 Gb/s till 400 Gb/s för att kunna flytta data snabbare, för att kunna mata GPU: erna för att öka vad vi kan gör, “sa Shainer.

Nvidia Quantum-2-system för fast konfiguration växlar levererar 64 portar NDR 400Gb/s InfiniBand per port, eller 128 portar NDR200, vilket ger tre gånger högre portdensitet jämfört med HDR InfiniBand , förklarade han.

Nvidia Quantum-2-modulära switchar, fortsatte han, tillhandahåller skalbara portkonfigurationer upp till 2048 portar NDR 400Gb/s InfiniBand – eller 4096 portar på NDR200 – med en total dubbelriktad genomströmning på 1,64 petabits per sekund. 2048-portens omkopplare ger 6,5 gånger större skalbarhet jämfört med föregående generation, med möjlighet att ansluta mer än en miljon noder.

Växlarna förväntas ta prov vid årsskiftet. Infrastrukturtillverkare som Atos, DDN, Dell Technologies, HPE och Lenovo förväntas också integrera Quantum-2 NDR 400Gb/s InfiniBand-switchar i deras företags- och HPC-erbjudanden.

Magnum IO GPUDirect Storage, som beskrivs som “oöverträffad prestanda för komplexa arbetsbelastningar”, möjliggör direkt minnesåtkomst mellan GPU-minne och lagring.

“Den direkta sökvägen gör det möjligt för applikationer att dra nytta av lägre I/O-latens och använda hela bandbredden för nätverksadaptrar samtidigt som användningsbelastningen på CPU minskar och hanteringen av effekten av ökad dataförbrukning,” sa Nvidia .

Nvidia och Google Cloud tillkännagav också planer på Mobile World Congress att inrätta ett AI-on-5G-innovationslaboratorium.

Paret visar det som en möjlighet för nätverksinfrastrukturspelare och AI-programvarupartners att utveckla, testa, och anta lösningar som “kommer att påskynda skapandet av smarta städer, smarta fabriker och andra avancerade 5G- och AI-applikationer”.

Företaget tillkännagav också sin “nästa generations” Aerial A100 AI-on-5G-datorplattform kommer att integrera 16 armbaserade CPU-kärnor i Nvidia BlueField-3 A100.

SENASTA FRÅN NVIDIA

Nvidias VD undviker mobil RTX till förmån för GeForce Now VD för Arm och NVIDIA diskuterar kontroversiell sammanslagning: 'Oberoende motsvarar inte styrka' Det finns en öppning för ARM på servrar just nuNvidia lägger till Base Command med SuperPod som en tjänst, planerar certifierade Arm-system 2022 Nvidia förvärvar AV-kartläggningsföretaget DeepMap för att stärka sin DRIVE-plattform Nvidia gör Fleet Command allmänt tillgängligt med AI Launchpad snart

Relaterade ämnen:

MWC CXO Digital Transformation Tech Industriens smarta städer moln  Asha Barbaschow

Av Asha Barbaschow | 28 juni 2021 – 07:00 GMT (08:00 BST) | Ämne: Innovation