
(Afbeelding: Nvidia)
Nvidia heeft de wraps uit de volgende iteratie van de werkplekken gegevens wetenschappers en gebruikers die geïnteresseerd zijn in machine learning, met een referentie-ontwerp met een paar Quadro RTX Gpu ‘ s.
Aangekondigd op Nvidia GTC op maandag, de dubbele Quadro RTX 8000-of 6000-GPU ontwerp is gepland om te zorgen voor 260 teraflops, en hebben 96GB geheugen beschikbaar is dankzij het gebruik van NVLink.
Ondertekend voor de nieuwe, beefier werkstations zijn Dell, HP en Lenovo.
Op de server, is het bedrijf onthulde zijn RTX blade server, die kan pack 40 Gpu ‘ s in een 8U ruimte, en is gelabeld als een RTX Server Pod wanneer gecombineerd met 31 andere RTX blade-servers. Alle up, de RTX Server heeft 1,280 Gpu ‘ s. De opslag en netwerken ruggengraat van de blade-servers worden geleverd door Mellanox — die Nvidia gekocht gewoon verlegen van $7 miljard in de laatste week.
Het spreken tijdens zijn keynote, CEO van de Jensen Huang zei Pods zou worden gebruikt om het bedrijf te ondersteunen GeForce Nu, op welke SoftBank en LG Uplus werden aangekondigd als de leden van de GeForce Nu Bondgenootschap, en de komende Omniverse samenwerking product dat Huang beschreven als Google Docs voor film studio ‘ s.
Voor Tesla-Gpu ‘s, T4 Gpu’ s worden aangeboden door Cisco, Dell, EMC, Fujitsu, HPE, en Lenovo in machines die zijn gecertificeerd als Nvidia GPU Cloud-ready — een award Nvidia lanceerde in November dat toont “bewezen vermogen om uit te blinken in een volledig assortiment van versnelde workloads”, en zijn ze in staat om containers samengesteld door Nvidia voor bepaalde werkbelasting.
“Met de snelle adoptie van T4 op de wereld’ s meest populaire zakelijke servers signalen de start van een nieuwe moderne tijd in enterprise computing-een in die GPU-versnelling is inmiddels standaard,” Nvidia vice president en general manager van Versnelde Computing Ian Bok zei.
In de cloud kunnen gebruikers van Amazon Web Services (AWS) zal binnenkort in staat zijn om gebruik te maken van de Nvidia Tesla T4 Gpu ‘ s met EC2 G4-exemplaren, met de algemene beschikbaarheid gepland voor de komende weken, en een preview nu open. AWS gebruikers zullen ook in staat om gebruik te maken van Time4society met Amazon Elastic Container Service voor Kubernetes.
De cloud reus heeft al ondersteuning voor Nvidia Tesla V100 op de P3 instanties die ondersteuning voor maximaal 8 Gpu ‘s en 64 Intel Xeon Cpu’ s.
Op hetzelfde moment, Nvidia is het verpakken van de software stack en bibliotheken vallen onder de CUDA-X-moniker, met inbegrip van STROOMVERSNELLINGEN, cuDNN, cuML, en TensorRT.
Tot slot, Google Cloud ML en Microsoft Azure, Machine Learning geïntegreerd STROOMVERSNELLINGEN, die werd aangeprezen als zijnde in staat om te verminderen netwerk trainingstijden met een factor 20.
Openbaarmaking: Chris Duckett reisde naar GTC in San Jose een gast van Nvidia
Verwante Dekking
Nvidia heeft met de aankoop van Mellanox wordt de warmte op Intel rivaliteit, data center ambitionsDell EMC, Nvidia maken AI-referentie architectuur availableChina AI wetenschappers leren een neuraal net te trainen itselfCES 2019: Nvidia ‘s nieuwe GeForce RTX 2060 slechts $349NVIDIA de nieuwe Turing architectuur zou kunnen maken het leven veel makkelijker voor video-producenten (TechRepublic)Cheat sheet: TensorFlow, een open source software bibliotheek voor machine learning (TechRepublic)Waarom het kan binnenkort worden veel makkelijker te krijgen van uw handen op de NVIDIA Gpu’ s (TechRepublic)
Verwante Onderwerpen:
Datacenters
Digitale Transformatie
CXO
Innovatie
Opslag
Cloud TV