Nvidia unwraps RTX-och T4-baserad maskinvara och moln fall

0
169
nvidia-data-science-workstation.jpg

(Bild: Nvidia)

Nvidia har tagit wraps från sitt nästa iteration av arbetsstationer för data forskare och användare som är intresserade av lärande, med en referens design med ett par av Quadro RTX Grafikprocessorer.

Meddelade på Nvidia GTC på måndag, den dubbla Quadro RTX 8000 eller 6000 GPU design är tänkt att ge 260 teraflops, och har 96GB minne som finns tillgängligt tack vare användningen av NVLink.

Undertecknad upp för att ge den nya, beefier arbetsstationer är Dell, HP och Lenovo.

På serversidan, företaget presenterade sin RTX blade server, som kan packa 40 Grafikprocessorer i en 8U space, och är märkt som en RTX Server Pod när de kombineras med 31 andra RTX bladservrar. Alla upp, RTX Server har 1,280 Grafikprocessorer. Lagring och nätverk ryggraden av bladservrar tillhandahålls av Mellanox — som Nvidia köpte bara blyg av $7 miljarder kronor förra veckan.

På tal under sin keynote, VD Jensen Huang sade Skida skulle användas för att stödja företagets GeForce Nu tjänsten, som SoftBank och LG Uplus aviserades som medlemmar av GeForce Nu Alliansen, och dess kommande Omniversum samarbete produkt som Huang beskrivs som Google Docs för film studios.

För Tesla Gpu, T4 Grafikprocessorer som erbjuds av Cisco, Dell EMC, Fujitsu, HPE, och Lenovo i maskiner som är har certifierats som Nvidia GPU redo för Molnet — en utmärkelse Nvidia lanserade i November som visar “visat prov på förmåga att utmärka sig i ett komplett utbud av accelererad arbetsbelastning”, och kan köra behållare tillsammans med Nvidia för vissa arbetsbelastning.

“Ett snabbt antagande av T4 på världens mest populära servrar företag signalerar början på en ny modern tid i enterprise computing-en i vilken GPU-acceleration har blivit standard” Nvidia vice president och general manager för Snabbare Datorer Ian Buck sade.

I molnet, användare av Amazon Web Services (AWS) kommer snart att kunna använda sig av Nvidia Tesla T4 Grafikprocessorer med EC2 G4 fall, med allmän tillgänglighet planerat till de kommande veckorna, och en förhandsgranskning nu öppen. AWS-användare kommer också att kunna använda sig av T4s med Amazon Elastic Container Service för Kubernetes.

Molnet jätte redan har stöd för Nvidia Tesla V100 på dess P3 instanser som kan hantera upp till 8 Grafikprocessorer och 64 Intel Xeon-Processorer.

Vid samma tid, Nvidia är ompackning sin programvara stack och bibliotek för att falla under CUDA-X moniker, som bland annat RAPIDS, cuDNN, cuML, och TensorRT.

Slutligen, Google Cloud ML och Microsoft Azure Machine Learning har integrerat FORSEN, som har varit tippad som att kunna minska nätverk utbildning gånger med en faktor 20.

Upplysningar: Chris Duckett reste till GTC i San Jose som gäst på Nvidia

Relaterade Täckning

Nvidia: s köp av Mellanox dyker upp värmen på Intel rivalitet, data center ambitionsDell EMC, Nvidia gör AI referensarkitektur availableChina s AI-forskare undervisar ett neuralt nät till tåg itselfCES 2019: Nvidia: s nya GeForce RTX 2060 är bara $349NVIDIA nya Turing arkitektur kan göra livet mycket lättare för video producenter (TechRepublic)lathund: TensorFlow, ett open source-bibliotek för maskininlärning (TechRepublic)Varför det kan snart bli mycket lättare att få tag på NVIDIA GPUs (TechRepublic)

Relaterade Ämnen:

Datacenter

Digital Omvandling

CXO

Innovation

Förvaring

Cloud TV