Nvidia Tesla V100-GPU får bred opbakning som server-leverandører øje AI arbejdsmængder

0
157

Nul

Den store server-leverandører står i kø bag Nvidia Tesla V100-GPU-accelerator i en bevægelse, der forventes at gøre kunstig intelligens og maskinindlæring arbejdsmængder mere mainstream.

Dell, EMC, HPE, IBM og Supermicro servere, der er skitseret på Nvidia ‘ s nyeste GPU acceleratorer, som er baseret på Volta arkitektur fra grafik chip maker. Nvidia ‘s V100-Gpu’ er, har mere end 120 teraflops af dyb læring ydelse per GPU. Der gennemløb effektivt tager hastighedsgrænsen off AI arbejdsmængder.

I et blog-indlæg, IBM ‘s Brad McCredie, vice president af den Store Blå kognitive system udvikling, bemærkes, at Nvidia med V100-såvel som dens NVLINK PCI-Express 4 og Hukommelse Sammenhæng teknologi bringer uset intern båndbredde” til AI-optimerede systemer.

V100-baserede systemer omfatter:

Dell, EMC ‘s PowerEdge R740, som understøtter op til tre V100-Gpu’ er til PCIe-og to højere end systemer med R740XD, og C4130.HPE ‘s Apollo 65000, som vil understøtte op til 8 V100-Gpu’ er til PCIe, og ProLiant DL380 system understøtter op til tre V100-Gpu ‘ er.IBM ‘s Power System med tænd / sluk 9 processor vil understøtte flere V100-Gpu’ er. IBM vil rulle ud i dens Magt, for 9-baserede systemer, der senere i år.Supermicro har også en serie af arbejdsstationer og servere, der er bygget med V100.Inspur, Lenovo og Huawei har også lanceret systemer baseret på V100.

Mere: NVIDIA morphs fra grafik og spil til AI og dybe læring

Nvidia CEO: Cryptocurrency er “kommet for at blive”Nvidia slår Q2 forventninger med bred vækst på tværs af platformsNvidia s supercomputer værktøjssæt: Åbning af funktioner i det menneskelige hjerte, i realtid

0