Nvidias Tesla V100 GPU får ett omfattande stöd som säljare server öga AI arbetsbelastning

0
144

Noll

Den stora servern leverantörer är kö bakom Nvidias Tesla V100 GPU accelerator i ett drag som förväntas göra artificiell intelligens och maskininlärning arbetsbelastning mer mainstream.

Dell EMC, HPE, IBM och Supermicro beskrivs servrar på Nvidias senaste GPU accelerator, som är baserad på Volta arkitektur från grafik-chip tekokare. Nvidias V100 Grafikprocessorer har mer än 120 teraflops av djupt lärande resultat per GPU. Att genomströmningen på ett effektivt sätt tar hastighetsgränsen av AI arbetsbelastning.

I ett blogginlägg, IBM: s Brad McCredie, vice vd för Stora Blå kognitiva system utveckling, konstaterade att Nvidia med V100 liksom dess NVLINK PCI-Express 4 och Minne Samstämmighet teknik ger “utan motstycke inre bandbredd” till AI-optimerade system.

Den V100-baserade system inkluderar:

Dell EMC PowerEdge R740, som stöder upp till tre V100 Grafikprocessorer för PCIe och två högre slutet system med R740XD, och C4130.HPE s Apollo 65000, som kommer med stöd för upp till 8 V100 Grafikprocessorer för PCIe, och ProLiant DL380 system som kan stödja upp till tre V100 Grafikprocessorer.IBM: s Power-System med Power-9-processor kommer att stödja flera V100 Grafikprocessorer. IBM kommer att rulla ut sin Makt 9-baserade system senare i år.Supermicro har också en serie av arbetsstationer och servrar byggda med V100.Inspur, Lenovo och Huawei har också lanserat ett system baserat på V100.

Mer: NVIDIA morfar från grafik och spel till AI och djupt lärande

Nvidia VD: Cryptocurrency är “här för att stanna”Nvidia slår Q2 förväntningar med bred tillväxt i hela platformsNvidia s superdator verktygslåda: att Öppna upp arbetet i det mänskliga hjärtat i realtid

0