Zero

Immagine: Nvidia
Per 400.000 dollari, si potrebbe ottenere circa 400 X iPhone telefoni, 300 di Superficie Pro laptop, o 11 Tesla Serie 3 auto elettriche. Ma ci vorrebbe l’intero $400K e di più per mettere le mani su un solo Nvidia DGX-2 server, fatturati come “il mondo più potente sistema di intelligenza artificiale per i più complessi AI sfide”.
Ma il DGX-2 live fino a che pretendiamo — e qualsiasi server davvero la pena ad un eye-irrigazione cartellino del prezzo?
DGX continua
Per rispondere a queste domande bisogna prima capire che il DGX-2 non è il primo off-the-peg Nvidia server per essere mirati a AI. Che onore va al DGX-1, basato su un mix di processori Intel ® Xeon ® accoppiato con Nvidia proprio AI ottimizzato Tesla V100 Volta-architettura Gpu. Il DGX-2 continua in questo approccio, ma invece di otto Tesla V100s uniti con Nvidia NVLink bus, il DGX-2 viene fornito con 16 di queste potenti Gpu collegati utilizzando il più scalabile NVswitch tecnologia. Secondo Nvidia, questa configurazione permette il DGX-2 per gestire la profondità di apprendimento e altri esigenti e AI carichi di lavoro HPC fino a 10 volte più veloce rispetto al suo fratello più piccolo.
Anche se è stato annunciato allo stesso tempo come il DGX-1, ha preso una proroga di sei mesi per il modello più grande, di apparire. Uno dei primi a rendere il regno UNITO è stato installato nei laboratori di Nvidia partner di Boston Limitata. Hanno chiesto se ci piacerebbe avere un look: che abbiamo fatto, e qui è quello che abbiamo trovato.
Il DGX-2 ‘unboxed’
Il DGX-2 è grande e si nasconde dietro un imponente oro craquelé-finitura lunetta.
Immagine: Alan Stevens/ZDNet
Così come le prestazioni, la dimensione è un grande elemento di differenziazione con il DGX-2 che ha lo stesso crackle-finitura lunetta in oro come il DGX-1, ma è fisicamente molto più grande, del peso di 154.2 kg (340lbs) rispetto a 60.8 kg (134lbs) per il DGX-1 e il consumo di 10 unità rack invece di 3.
Questa immagine mostra il retro del 10U DGX-2 chassis con gli slot per le due GPU vassoi (solo uno in situ), con server vuoto e PCIe slot da sotto, più tre alimentatori hot-swap su entrambi i lati.
Immagine: Alan Stevens/ZDNet
Particolare attenzione è necessaria per l’alimentazione e il raffreddamento, soprattutto in un misto di rack. Qui, insieme con un paio di randagi cavi di rete, è l’alimentazione per rack nel Boston Labs.
Immagine: Alan Stevens/ZDNet
Vale anche la pena notare che il DGX-2 ha bisogno di molta più potenza rispetto al suo fratellino, che richiedono fino a 10kW a full tilt, che salgono a 12kW per il recentemente annunciato DGX-2H modello (di cui più avanti). L’immagine sotto mostra la potenza di accordi di Boston necessari per mantenere questa piccola bestia felice. Di raffreddamento, allo stesso modo, sarà necessario un attento esame, in particolare, dove più di un DGX-2 è distribuito o dove è installato insieme ad altri hardware nello stesso rack.
La distribuzione di tale potere è un insieme di sei hot-swap e Alimentatori ridondanti che la diapositiva nella parte posteriore del telaio con i vari moduli che compongono il resto del sistema. Di raffreddamento, nel frattempo, è gestita da un array di 10 ventole trova dietro il pannello frontale con spazio sui lati per 16 2,5 pollici, dispositivi di archiviazione in due banche di otto.
Con 8 NVMe Ssd, il DGX-2 viene fornito con 30 TB di spazio di archiviazione, lasciando otto campate libero per l’espansione.
Immagine: Alan Stevens/ZDNet
Nvidia comprende otto 3.84 TB Micron 9200 Pro NVMe unità come parte della configurazione di base, pari a poco più di 30 TB di storage ad alte prestazioni. Questo, tuttavia, è principalmente per gestire i dati locali, con ulteriore spazio sulla scheda madre per OS e il codice dell’applicazione. Lascia anche otto campate vuota per aggiungere più spazio di archiviazione, se necessario. Inoltre, il DGX-2 è irto di alto-larghezza di banda di rete interfacce per la connessione a una maggiore capacità anche e costruire cluster di server, se necessario.
Il bit di Intel
Una coppia di 24-core Xeon Platino processori, a 1,5 TB di RAM e un paio di NVMe schede di memoria sono configurati sul DGX-2 scheda madre.
Immagine: Alan Stevens/ZDNet
Estrarre il server vassoio e all’interno si trova un convenzionale-ricerca basato su processore Intel, scheda madre con due socket Xeon Platinum chip. Il sistema che abbiamo guardato questi erano 24-core Xeon Platino 8168 processori con clock a 2.7 GHz, anche se Nvidia ha dato ha annunciato il DGX-2H modello leggermente più veloce 3.1 GHz Xeon Platino 8174 processori insieme con le nuove 450W Volta 100 moduli. Questo comporta la necessità di avere molta più potenza (fino a 12kW) e probabilmente aggiungere al costo complessivo, anche se al momento di scrivere il prezzo di questo nuovo modello doveva ancora essere confermato.
Indipendentemente dalle specifiche, i processori Xeon a sedere nel mezzo della scheda madre circondato da 24 completamente popolato slot DIMM, dando agli acquirenti un impressionante 1,5 TB di RAM DDR4 per giocare con. Accanto a questo sono un paio di 960GB NVMe di archiviazione bastoni configurato come un array RAID 1, sia per avviare il sistema operativo (Linux Ubuntu) e di fornire spazio per il DGX stack di software e di altre applicazioni.
Il solito di rete e USB controller integrato, con due porte RJ-45 Gigabit porte, uno per out-of-band di gestione remota e l’altro per la connettività generale. Uno dei due slot di espansione PCIe anche pronto e dotato di una doppia porta Mellanox ConnectX-5 adattatore che può ospitare Ethernet transceiver fino a 100GbE per ulteriori larghezza di banda di rete.
E due porte Gigabit Ethernet, una Mellanox PCIe adattatore fornisce due porte Ethernet, che può richiedere da 10-100GbE ricetrasmettitori.
Immagine: Alan Stevens/ZDNet
Il secondo slot di espansione PCIe di solito è vuota, ma ancora di più è disponibile la connettività di cortesia separato PCIe cassetto che si trova appena sopra la scheda madre del server. Questo aggiunge un ulteriore otto PCIe interfacce pieno, di nuovo, con Mellanox adattatori che possono essere utilizzati per connettersi al cluster di storage utilizzando 10 gbe Ethernet o InfiniBand EDR 100 ricetrasmettitori.
Un ulteriore otto Ethernet o Infiniband porte sono disponibili tramite il PCIe vassoio.
Immagine: Alan Stevens/ZDNet
Nvidia parti
E ora il bit che stavate tutti aspettando per-i 16 Nvidia Tesla V100 Gpu che, anche a causa delle loro grandi dissipatori di calore (vedi sotto), devono essere divisi in due battiscopa.
Come promemoria, questo è ciò che una Tesla Volta 100 modulo si presenta come:
Immagine: Nvidia
E questo è ciò che otto Volta 100 moduli simile a quando è installato all’interno di una delle GPU vassoi di un DGX-2:
Il 16 Tesla V100 Gpu sono diviso tra due battiscopa lungo con il NVswitch hardware necessario per tenerli insieme.
Immagine: Alan Stevens/ZDNet
La GPU tavole di tenere il NVswitches che devono essere fisicamente uniti al fine per la Volta di 100 moduli per comunicare e funzionare come una singola GPU. Ciò avviene mediante il collegamento di due custom-designed backplane dietro il battiscopa, una volta che sono stati messi nel telaio.
Il NVswitches sulle due GPU battiscopa sono fisicamente uniti da questi diabolici-alla ricerca backplane, che si allega al posteriore.
Immagine: Alan Stevens/ZDNet
La Tesla V100 Gpu stessi sono molto lo stesso SXM moduli come quelli nell’ultima DGX-1. Ognuna è dotata di 32 gb di HBM2 di memoria per GPU, quindi, con sedici installato c’è il doppio della memoria della GPU — 512GB — del tutto.
Ogni GPU ha anche 5,120 CUDA core di elaborazione, nonché 640 di più specialistiche AI-ottimizzato Tensore core. Moltiplicato per sedici anni, che dà 10,240 Tensore core in totale e un enorme 81,920 CUDA equivalenti. Tutti che rende per un sacco di potenza di elaborazione, che è ulteriormente rafforzata dalla interconnessione di larghezza di banda di 2,4 TB/sec disponibile dal NVSwitch tecnologia con capacità di scalare ulteriormente in futuro.
Prestazioni di andare
Tanto, poi, per l’hardware. Oltre a questo è anche una pila di preinstallato AI strumenti pronti per accendere e iniziare a lavorare.
Quando si esamina un server è a questo punto che normalmente si inizia a parlare di prestazione e dei risultati del test che abbiamo, in genere, correte a vedere come impila in su. Tuttavia, l’esecuzione di benchmark sul DGX-2 è un compito banale, che, dato il tipo di apprendimento profondo e di altri carichi di lavoro HPC coinvolti, richiedono lunghe sessioni nell’arco di diversi giorni. Così, invece, dovremo fare affidamento su Nvidia sostiene, insieme con feedback da parte di esperti di Boston.
Immagine: Nvidia
A tal fine, il titolo figura per il DGX-2 è un impressionante 2 petaFLOPS (PFLOPS) di potenza di elaborazione forniti principalmente dal Tensore di core per gestire mista formazione AI carichi di lavoro. Questa cifra sale a 2,1 PFLOPS sul DGX-2H utilizzando più veloce 450W Tesla V100 moduli.
Per mettere che in prospettiva, questa potenza di elaborazione attivato il DGX-2 per completare il FairSeq PyTorch benchmark in soli 1,5 giorni-che è 10 volte più veloce rispetto a 15 giorni necessari per la stessa prova sul DGX-1 solo sei mesi prima. Inoltre, Nvidia dice che per ottenere gli stessi risultati utilizzando la tecnologia x86 vorrebbero 300 dual-socket Xeon server, che occupa da 15 a rack e con un costo di circa $2,7 milioni.
Tutto ciò rende il DGX-2 sembrare un affare a circa 400.000 dollari (o l’equivalente in sterline britanniche), anche quando si aggiunge il costo del supporto, e che, nel regno UNITO, a partire da circa € 26,000 (ex. IVA) all’anno. Nonostante il prezzo elevato, le aziende che già investono in AI troverete questo molto conveniente rispetto alle alternative, che comprendono noleggio calcolare il tempo condivisa dei centri di elaborazione dati o cloud. Nvidia è anche tenuto a sottolineare che il DGX-2 può anche essere utilizzato per gestire meno esotici carichi di lavoro HPC accanto AI suoi doveri.
Tenete a mente, inoltre, che, anche se il DGX-1 e DGX-2 stanno rompendo un nuovo terreno, le alternative sono sul loro modo di altri produttori. Non meno SuperMicro, che sul suo sito sono già presenti un server basato sulla stessa Nvidia HGX-2 modello di riferimento, come il DGX-2. Altri, come Lenovo, non sono molto indietro e queste alternative inevitabilmente di lavoro al ribasso dei prezzi. Saremo a seguito di questi sviluppi in tutto il 2019.
RECENTI E RELATIVI CONTENUTI
IBM, Nvidia coppia fino su AI-ottimizzato converged storage di sistema
IBM Spettro AI Nvidia DGX è progettato per AI e di apprendimento automatico dei carichi di lavoro.
MLPerf risultati di benchmark vetrina Nvidia top AI tempi di formazione
Per la prima versione di MLPerf, un obiettivo di AI suite di benchmarking, Nvidia ha ottenuto eccellenti risultati in sei categorie.
Nvidia propone di eseguire le reti neurali, in maniera più efficace
Come dati diventa più grande e modelli crescere più grande e profondo di apprendimento è ancora una volta il “tutto recintato da hardware”. Al VLSI Simposi, Nvidia ha suggerito alcuni modi per affrontare questo problema.
Nvidia svela il HGX-2, una piattaforma server HPC e AI carichi di lavoro
La piattaforma unica di alta precisione, capacità di calcolo sono progettati per il crescente numero di applicazioni che combinano elevate prestazioni di calcolo con AI.
Il GPU computing: Accelerare la profonda curva di apprendimento
Per costruire e formare profonda reti neurali si hai bisogno di una seria quantità di multi-core di potenza di elaborazione. Esaminiamo leader GPU-based di soluzioni di Nvidia e Boston Limitata.
AI competenze regnare sovrana in più rapida crescita di posti di lavoro l’anno (TechRepublic)
Sei su 15, top emergenti posti di lavoro nel 2018 erano legati all’intelligenza artificiale, secondo LinkedIn.
Nvidia delinea inferenza piattaforma, terre del Giappone giganti industriali come AI, robotica clienti (TechRepublic)
Le notizie in evidenza Nvidia trazione in AI e il centro dati.
Argomenti Correlati:
Hardware
Recensioni
Archiviazione
Centri Dati
0