De Nvidia Tesla V100 GPU krijgt brede back-server leveranciers oog AI workloads

0
137

Nul

De belangrijkste server leveranciers staan in de rij achter de Nvidia Tesla V100 GPU accelerator in een beweging die wordt verwacht om kunstmatige intelligentie en machine learning workloads meer mainstream.

Dell, EMC, HPE, IBM en Supermicro beschreven servers op Nvidia ‘ s nieuwste GPU versnellers, die zijn gebaseerd op de Volta architectuur van de grafische chip maker. Nvidia ‘s V100 Gpu’ s hebben meer dan 120 teraflops van diep leren prestaties per GPU. Dat doorvoer effectief neemt de maximumsnelheid uit AI workloads.

In een blog post, IBM Brad McCredie, vice-president van de Big Blue op de cognitieve ontwikkeling van het systeem, merkte op dat Nvidia met de V100 evenals de NVLINK PCI-Express 4 en Geheugen Samenhang technologie brengt “ongekende interne bandbreedte” AI-geoptimaliseerde systemen.

De V100-systemen zijn onder andere:

Dell EMC PowerEdge R740, die ondersteunt maximaal drie V100 Gpu ‘ s voor PCIe en twee high-end systemen met de R740XD, en C4130.HPE ‘s Apollo 65000, die ondersteunt tot 8 V100 Gpu’ s voor PCIe, en de ProLiant DL380 systeem ter ondersteuning van maximaal drie V100-Gpu ‘ s.IBM Power System met de Macht 9-processor zal de ondersteuning van meerdere V100-Gpu ‘ s. IBM zal de uitrol van haar Vermogen 9-systemen, die later dit jaar.Supermicro heeft ook een serie van werkstations en servers die zijn gebouwd met de V100.Inspur, Lenovo en Huawei lanceerde ook systemen die gebaseerd zijn op de V100.

Meer: NVIDIA morphs van graphics en gaming aan AI en diep leren

Nvidia CEO: Cryptocurrency is “here to stay”Nvidia beats Q2 verwachtingen met brede groei in platformsNvidia supercomputer toolset: een Openstelling van de werking van het menselijk hart in real-time

0