Zero
I principali fornitori di server sono in fila dietro di Nvidia Tesla V100 GPU acceleratore in una mossa che dovrebbe rendere intelligenza artificiale, machine learning carichi di lavoro più mainstream.
Dell, EMC, HPE, IBM e Supermicro delineato server più recenti di Nvidia GPU acceleratori, che sono basate sulla Volta la sua architettura grafica produttore di chip. Nvidia V100 Gpu sono più di 120 teraflops di apprendimento profondo prestazioni per GPU. Che il throughput effettivamente avviene il limite di velocità di sconto AI carichi di lavoro.
In un post sul blog, IBM Brad McCredie, vice presidente di Big Blue cognitivi e di sviluppo del sistema, ha osservato che Nvidia con la V100, come pure la sua NVLINK PCI-Express 4 e Memoria Coerenza tecnologia porta “senza precedenti larghezza di banda interna” ai sistemi ottimizzati.
Il V100-based sistemi includono:
Dell EMC PowerEdge R740, che supporta fino a tre V100 Gpu per il PCIe e due sistemi di fascia più alta con il R740XD, e C4130.HPE Apollo 65000, che supporterà fino a 8 V100 Gpu per il PCIe, e il ProLiant DL380 sistema supporta fino a tre V100 Gpu.IBM Power System con Potenza di 9 processore supporta più V100 Gpu. IBM lancerà la sua Potenza di 9 sistemi basati fine di quest’anno.Supermicro ha anche una serie di workstation e server integrato con il V100.Inspur, Lenovo e Huawei ha anche lanciato i sistemi basati sul V100.
Di più: NVIDIA si trasforma da grafiche e di gioco per l’IA e il deep learning
Il CEO di Nvidia: Cryptocurrency è “here to stay”Nvidia batte Q2 aspettative con ampio crescita in tutta platformsNvidia supercomputer set di strumenti: l’Apertura di funzionamento del cuore umano, in tempo reale
0