University of Edinburgh har mottatt en ny høyytelses databehandlingsplattform, kalt Tursa, som er optimalisert for beregningspartikkelfysikk.
Det nye systemet er drevet av Nvidia HGX høyytelses databehandlingsplattform og er den tredje av fire DiRAC “neste generasjons” superdatamaskiner som ble annonsert.
DiRAC er Storbritannias integrerte superdatamaskin for teoretisk modellering og HPC-basert forskning innen astronomi, kosmologi, partikkelfysikk og kjernefysikk. Det vil kjøre Tursa-systemet.
Tursa vil tillate forskere å utføre ultrahøy presisjonsberegninger av egenskapene til subatomære partikler som trengs for å tolke data fra massive partikkelfysikkeksperimenter, for eksempel Large Hadron Collider .
“Tursa er designet for å takle unike forskningsutfordringer for å låse opp nye muligheter for vitenskapelig modellering og simulering,” sa professor i teoretisk fysikk ved University of Edinburgh og prosjektleder for DiRAC-3-distribusjonen Luigi Del Debbio.
Tursa er bygget med Atos og har 448 Nvidia A100 Tensor Core GPUer og inkluderer fire Nvidia HDR 200Gb/s InfiniBand nettverkskort per node.
Ved å kunngjøre det siste fra partnerskapet med DiRAC, brukte Nvidia også Mobile World Congress for å si at det var “turboladning” av Nvidia HGX AI supercomputing-plattformen, og banket på kombinasjonen av å smelte AI med HPC for å bryte inn i ytterligere bransjer.
< p> “HPC går overalt, AI går overalt, alle bedrifter i verden vil bruke superdatamaskiner for å akselerere virksomhetene sine,” sa Gilad Shainer, Nvidia senior vice president of networking, til media.
“Supercomputing [serverer] flere og flere applikasjoner … administrering av superdatamaskinen blir derfor mye mer komplisert. Du må bringe sikkerhet til supercomputing fordi du trenger å isolere brukerne, isolere mellom applikasjonene, beskytte mellom brukerne, du må beskytte data . “
Nvidia har lagt til tre teknologier i sin HGX-plattform: Nvidia A100 80 GB PCIe GPU, Nvidia NDR 400G InfiniBand-nettverk og Nvidia Magnum IOTM GPUDirect Storage-programvare.
Nvidia A100 80Gb PCle
Bilde: Nvidia
Nvidia A100 Tensor Core GPU-er, sa selskapet, leverer “enestående HPC-akselerasjon” for å løse komplekse AI, dataanalyser, modellopplæring og simuleringsutfordringer som er relevante for industriell HPC. A100 80 GB PCIe-GPUer øker båndbredden på GPU-minnet med 25% sammenlignet med A100 40 GB, til 2 TB/s, og gir 80 GB HBM2e-minne med høy båndbredde.
“Når vi bygger en superdatamaskin, handler det alltid om ytelse … men det er her vi begynner å treffe et stort problem, “sa Shainer. “Måten å løse det på er å bruke GPU … bringe GPU inn i superdatamaskinen og bruke GPU til å kjøre all infrastrukturadministrasjon … fra CPU.”
Nvidia-partnerstøtte for A100 80 GB PCIe inkluderer Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT og Supermicro. HGX-plattformen med A100-baserte GPUer som er sammenkoblet via NVLink, er også tilgjengelig via skytjenester fra Amazon Web Services, Microsoft Azure og Oracle Cloud Infrastructure.
Nvidia NDR 400G InfiniBand-nettverk er i mellomtiden spioneringen som skaleringsytelse for å takle de enorme utfordringene i industrielle og vitenskapelige HPC-systemer.
“Disse systemene driver båndbredden til neste nivå. Vi flytter datasenteret fra å kjøre på 200 Gb/s til 400 Gb/s for å kunne flytte data raskere, for å kunne mate GPU-ene for å øke det vi kan gjør, “sa Shainer.
Nvidia Quantum-2-svitsjsystemer med fast konfigurasjon leverer 64 porter NDR 400Gb/s InfiniBand per port, eller 128 porter på NDR200, og gir tre ganger høyere porttetthet versus HDR InfiniBand , forklarte han.
Nvidia Quantum-2 modulære brytere, fortsatte han, gir skalerbare portkonfigurasjoner opp til 2048 porter på NDR 400Gb/s InfiniBand – eller 4096 porter på NDR200 – med en total toveis gjennomstrømning på 1,64 petabit per sekund. 2.048-port-bryteren gir 6,5 ganger større skalerbarhet i forhold til forrige generasjon, med muligheten til å koble til mer enn en million noder.
Bryterne forventes å prøve innen årsskiftet. Infrastrukturprodusenter som Atos, DDN, Dell Technologies, HPE og Lenovo forventes også å integrere Quantum-2 NDR 400Gb/s InfiniBand-brytere i deres virksomhets- og HPC-tilbud.
Magnum IO GPUDirect Storage, beskrevet av å gi “uovertruffen ytelse for komplekse arbeidsbelastninger”, Nvidia sa, muliggjør direkte minnetilgang mellom GPU-minne og lagring.
“Den direkte banen gjør det mulig for applikasjoner å dra nytte av lavere I/O-ventetid og bruke full båndbredde til nettverkskortene mens de reduserer utnyttelsesbelastningen på CPU og styrer effekten av økt dataforbruk,” sa Nvidia .
Nvidia og Google Cloud kunngjorde planer på Mobile World Congress om å etablere et AI-on-5G innovasjonslaboratorium.
Paret viser det som en mulighet for nettverksinfrastrukturaktører og AI-programvarepartnere til å utvikle, teste, og vedta løsninger som vil “akselerere etableringen av smarte byer, smarte fabrikker og andre avanserte 5G- og AI-applikasjoner”.
Selskapet kunngjorde at “neste generasjons” Aerial A100 AI-on-5G databehandlingsplattform vil innlemme 16 armbaserte CPU-kjerner i Nvidia BlueField-3 A100.
SENESTE FRA NVIDIA
Nvidias administrerende direktør avskyr mobil RTX til fordel for GeForce NowCEOs of Arm og NVIDIA diskuterer kontroversiell fusjon: 'Uavhengighet tilsvarer ikke styrke' Det er en åpning for ARM på servere akkurat nå. legger til Base Command med SuperPod som en tjeneste, planlegger sertifiserte Arm-systemer i 2022 Nvidia kjøper AV-kartleggingsfirma DeepMap for å styrke sin DRIVE-plattform Nvidia gjør Fleet Command generelt tilgjengelig med AI Launchpad snart
Relaterte emner:
CXO Digital Transformation Tech Industry Smart Cities Cloud