Zero

Image: Nvidia
Pour 400 000$, vous pourriez obtenir environ 400 iPhone X combinés, 300 Surface Pro des ordinateurs portables, ou 11 Tesla 3 de la Série de voitures électriques. Mais il faudra pour l’ensemble de 400 k $et plus pour obtenir vos mains sur une seule Nvidia DGX-2 serveur, ce qui est présenté comme “le plus puissant du monde système d’IA pour les plus complexes de l’IA défis”.
Mais ne le DGX-2 en direct jusqu’à la demande d’asile-et n’importe quel serveur, vraiment la peine d’un tel oeil-arrosage étiquette de prix?
DGX suite
Afin de répondre à ces questions, vous devez d’abord comprendre que le DGX-2 n’est pas le premier hors-la-peg Nvidia serveur destiné à l’IA. Que l’honneur revient à la DGX-1, basé sur un mélange de processeurs Intel Xeon jumelé avec Nvidia IA du optimisé Tesla V100 Volta-architecture Gpu. Le DGX-2 continue de cette approche, mais au lieu de huit Tesla V100s joint à l’aide de Nvidia NVLink bus, le DGX-2 est livré avec 16 de ces puissants Processeurs connectés à l’aide de son plus évolutif NVswitch de la technologie. Selon Nvidia, cette configuration permet le DGX-2 pour traiter l’apprentissage en profondeur et l’autre pour demander de l’AI et de charges de travail HPC jusqu’à 10 fois plus rapide que son petit frère.
Bien qu’il a été annoncé en même temps que le DGX-1, il a pris une six mois supplémentaires pour le plus grand modèle à apparaître. L’un des premiers à le faire pour le royaume-UNI a été installé dans les laboratoires de Nvidia partenaire de Boston Limitée. Ils ont demandé si nous aimerions avoir un coup d’oeil: nous l’avons fait, et voici ce que nous avons trouvé.
Le DGX-2 ‘”unboxed”‘
Le DGX-2 est grande et se cache derrière un imposant or crackle-finition de la lunette.
Image: Alan Stevens/ZDNet
Ainsi que le rendement, la taille est un grand facteur de différenciation avec le DGX-2, qui a le même crackle-finition lunette en or comme le DGX-1 mais est physiquement beaucoup plus gros, pesant de 154,2 kg (340lbs) contre 60,8 kg (£134) pour le DGX-1 et de consommer de 10 unités de rack au lieu de 3.
Cette photo montre l’arrière de la 10U DGX-2 châssis avec des fentes pour les deux GPU plateaux (un seul in situ), avec un serveur vide et PCIe fentes du plateau ci-dessous, en plus de trois alimentations remplaçables à chaud de chaque côté.
Image: Alan Stevens/ZDNet
Une attention particulière est nécessaire à l’alimentation et de refroidissement, en particulier dans un mélange de rack. Ici, avec quelques errants câbles de réseau, est la façon dont la puissance est transmise à la grille dans le Boston des Laboratoires.
Image: Alan Stevens/ZDNet
Il est également intéressant de noter que le DGX-2 a besoin de beaucoup plus de puissance que son petit frère, nécessitant jusqu’à 10 kw sur full tilt, en hausse de 12kW pour la récemment annoncé DGX-2H modèle (sur qui est plus court). L’image ci-dessous montre la puissance des arrangements à Boston nécessaire pour garder cette petite bête heureux. De refroidissement, de même, doivent être examinées avec soin, en particulier lorsque plus d’un DGX-2 est déployé ou lorsqu’il est installé à côté d’autres matériels dans le même rack.
La distribution que l’alimentation est un ensemble de six redondants et remplaçables à chaud Uar qui glisser à l’arrière du châssis, ainsi que les différents modules qui composent le reste du système. De refroidissement, quant à elle, est gérée par un tableau de 10 ventilateurs situés derrière la façade avec de la place sur les côtés pour 16 2,5 pouces périphériques de stockage dans des banques de huit.
Avec 8 disques Ssd NVMe, le DGX-2 est livré avec 30TB de stockage, laissant huit baies libre pour l’expansion.
Image: Alan Stevens/ZDNet
Nvidia comprend huit 3.84 la TUBERCULOSE Micron 9200 Pro NVMe lecteurs dans le cadre de la configuration de base, ce qui correspond à un peu plus de 30TB de stockage de haute performance. Ceci, cependant, est la plupart du temps pour gérer les données locales, avec plus de rangement sur le principal de la carte mère le système d’exploitation et le code de l’application. Il laisse également de huit travées vides pour ajouter plus d’espace de stockage si nécessaire. En outre, le DGX-2 est hérissé de réseau à bande passante élevée interfaces pour se connecter à encore plus de capacité et de construire des clusters de serveurs si nécessaire.
Intel bits
Une paire de 24-core Xeon Platine processeurs, à 1,5 to de mémoire vive et une paire de NVMe adaptateurs de stockage sont configurés sur le DGX-2 de la carte mère.
Image: Alan Stevens/ZDNet
Tirez le plateau du serveur et à l’intérieur vous trouverez un classique prospectifs basés sur les processeurs Intel de la carte mère avec deux sockets pour Xeon Platine jetons. Sur le système, nous avons regardé ces 24-core Xeon Platine 8168 processeurs cadencés à 2,7 GHz, bien que Nvidia a depuis annoncé le DGX-2H modèle légèrement plus rapide 3,1 GHz Xeon Platine 8174 processeurs ainsi que des nouvelles 450W Volta 100 modules. Cela se fait au détriment d’exiger beaucoup plus de puissance (jusqu’à 12kW) et va probablement ajouter le coût global, bien qu’au moment de la rédaction, le prix de ce nouveau modèle n’est encore confirmé.
Quelle que soit la spécification, le Xeon à s’asseoir au milieu de la carte mère, entouré par 24 entièrement rempli slots DIMM, donnant aux acheteurs une impressionnante 1,5 to de RAM DDR4 à jouer avec. Aux côtés de ce sont une paire de 960GB NVMe de stockage des bâtons configuré comme une matrice RAID 1 fois au démarrage de l’OS (Linux Ubuntu) et fournir un espace pour la DGX logiciel de pile et d’autres applications.
L’habitude USB et réseau de contrôleurs sont également intégrée, avec deux ports RJ-45 Gigabit à l’arrière — un pour out-of-band de gestion à distance et l’autre pour la connectivité générale. L’un des deux emplacements d’extension PCIe est également livré monté avec un dual-port Mellanox ConnectX-5 adaptateur qui peut accueillir Ethernet émetteurs-récepteurs jusqu’à 100GbE pour plus de bande passante réseau.
Ainsi deux haut-ports Ethernet Gigabit, un Mellanox PCIe adaptateur fournit deux ports Ethernet qui peut prendre de 10 100GbE émetteurs-récepteurs.
Image: Alan Stevens/ZDNet
La deuxième extension PCIe slot est généralement vide, mais encore plus de connectivité est disponible à la courtoisie de les séparer PCIe plateau qui se trouve juste au-dessus de la carte mère du serveur. Cela s’ajoute aux huit interfaces PCIe rempli, encore une fois, avec Mellanox des adaptateurs qui peuvent être utilisés pour se connecter au cluster de stockage en utilisant soit la technologie 10 gbe Ethernet ou InfiniBand EDR 100 émetteurs-récepteurs.
Huit autres sont en Ethernet ou Infiniband ports sont disponibles via le PCIe bac.
Image: Alan Stevens/ZDNet
La Nvidia pièces
Et maintenant, le peu que vous avez tous été d’attente pour — le 16 Nvidia Tesla V100 Gpu qui, en partie à cause de leurs gros dissipateurs de chaleur (voir ci-dessous), ont à être divisée en deux plinthes.
Pour rappel, c’est ce que Tesla Volta 100 module ressemble à:
Image: Nvidia
Et c’est ce que huit Volta 100 modules lorsqu’ils sont installés à l’intérieur de l’un des GPU les plateaux d’une DGX-2:
Le 16 Tesla V100 Gpu sont divisés entre les deux plinthes avec le NVswitch le matériel nécessaires pour les relier ensemble.
Image: Alan Stevens/ZDNet
Le GPU conseils aussi organiser la NVswitches qui ont besoin d’être physiquement rejoint dans le but de la Volta 100 modules de communiquer et de fonctionner comme un seul GPU. Ceci est accompli par la connexion de deux conception personnalisée de fonds de panier à l’arrière de la plinthe, une fois qu’ils ont été poussés dans le châssis.
Le NVswitches sur les deux GPU plinthes sont physiquement rejoint par ces diaboliques-la recherche fonds de panier, qui s’attachent à l’arrière.
Image: Alan Stevens/ZDNet
La Tesla V100 Gpu eux-mêmes sont à peu près les mêmes SXM modules comme ceux de la dernière DGX-1. Chacune d’elles est équipée avec 32 go de HBM2 mémoire par GPU, donc, avec seize installé il y a le double de la mémoire GPU — 512 GO — tout à fait.
Chaque GPU a également 5,120 traitement CUDA cores ainsi que 640 de le plus spécialisé AI optimisé du Tenseur de base. Multiplié par seize, qui donne de 10 240 Tenseur des noyaux au total et un énorme 81,920 CUDA équivalents. Tout ce qui rend pour une grande puissance de traitement, qui est renforcée par l’interconnexion de la bande passante de 2,4 TB/s disponibles à partir de la NVSwitch de la technologie de la capacité à l’échelle encore plus loin dans l’avenir.
Les performances d’aller
Autant pour le matériel. En plus de cela, vous obtenez également l’intégralité de la pile de préinstallés IA outils prêts à l’alimentation et à commencer à travailler.
Lors de l’examen d’un serveur c’est à ce moment que l’on devrait normalement commencer à parler de la performance et les résultats des tests que nous avons généralement exécuter pour voir comment ça s’empile. Toutefois, l’exécution de tests sur le DGX-2 est loin d’être une tâche triviale qui, compte tenu de la nature de l’apprentissage en profondeur et d’autres charges de travail HPC impliqués, exigerait de longues sessions sur plusieurs jours. Ainsi, au lieu qu’on va devoir compter sur Nvidia créances, ainsi que les commentaires des experts de Boston.
Image: Nvidia
À cette fin, le titre figure pour le DGX-2 est un impressionnant 2 petaFLOPS (PFLOPS) de la puissance de traitement fournis principalement par le Tenseur de cœurs de poignée mixte IA formation de la charge de travail. Ce chiffre s’élève à 2,1 PFLOPS sur le DGX-2H en utilisant plus rapide 450W Tesla V100 modules.
Pour mettre cela en perspective, cette puissance de traitement activé le DGX-2 pour terminer le FairSeq PyTorch référence dans seulement 1,5 jours: c’est 10 fois plus rapide que le délai de 15 jours nécessaires pour le même test sur le DGX-1 à peine six mois plus tôt. En outre, Nvidia estime que, pour obtenir les mêmes résultats en utilisant la technologie x86 nécessiterait 300 dual-socket Xeon, serveurs, occupant 15 racks et le coût d’environ 2,7 millions de dollars.
Tout ce qui fait le DGX-2 semblent comme une aubaine à environ 400 000 $(ou l’équivalent en livres sterling), même lorsque vous ajoutez le coût de l’appui-qui, dans le royaume-UNI, commence à environ £26,000 (ex. TVA) par an. En dépit de l’étiquette de prix élevé, les entreprises qui investissent déjà dans IA trouverez cette très abordable comparé à d’autres solutions, qui comprennent la location de temps de calcul partagées dans des centres de données ou le cloud. Nvidia a également tenu à souligner que le DGX-2 peut également être utilisé pour gérer les moins exotiques HPC charges de travail aux côtés de son IA fonctions.
Garder à l’esprit que, bien que le DGX-1 et DGX-2 innovent, des alternatives sont sur leur chemin à partir d’autres fournisseurs. Pas moins SuperMicro, qui sur son site répertorie déjà un serveur basé sur le même Nvidia HGX-2 du modèle de référence comme le DGX-2. D’autres, comme Lenovo, ne sont pas loin derrière et de ces alternatives sera inévitablement de travail à la baisse des prix. Nous allons suivre ces évolutions tout au long de 2019.
RÉCENT ET LE CONTENU.
IBM, Nvidia paire sur IA-optimisé convergé système de stockage
IBM Spectre de l’IA avec Nvidia DGX est conçu pour les IA et l’apprentissage automatique des charges de travail.
MLPerf les résultats d’un benchmark vitrine Nvidia haut de IA durée de la formation
Pour la première version de MLPerf, un objectif de l’IA suite de l’analyse comparative, Nvidia obtenu les meilleurs résultats dans six catégories.
Nvidia vise à faire fonctionner les réseaux de neurones, plus rapide, plus efficace
Comme les données est plus grand et les modèles de croître, l’apprentissage en profondeur est une fois de plus “complètement fermée par le matériel.” Au VLSI Colloques, Nvidia a suggéré quelques méthodes pour résoudre ce problème.
Nvidia dévoile la HGX-2, une plate-forme de serveur pour le CHP et l’IA des charges de travail
La plate-forme unique de haute précision les capacités de calcul sont conçus pour le nombre croissant d’applications qui combinent de calcul de haute performance avec l’IA.
GPU computing: Accélération de la profondeur de la courbe d’apprentissage
De construire et de former des réseaux de neurones profonds vous avez besoin de quantités importantes de multi-cœur, la puissance de calcul. Nous examinons les principaux GPU de solutions à base de Nvidia et Boston Limitée.
L’IA des compétences règne en maître dans la manière la plus rapide croissance des emplois de l’exercice (TechRepublic)
Six des 15 meilleures émergents emplois en 2018 ont été liées à l’intelligence artificielle, selon LinkedIn.
Nvidia présente l’inférence de plate-forme, les terres du Japon géants industriels comme AI, la robotique clients (TechRepublic)
Les nouvelles faits saillants de Nvidia de traction dans l’IA et le centre de données.
Rubriques Connexes:
Matériel
Commentaires
De stockage
Les Centres De Données
0