Nvidia dubblar ner på AI

0
78

Noll

AI bevakar industrin och ZDNet läsare vet Nvidia har blivit en ångvält i världen av GPU-baserade djupt lärande och artificiell intelligens (AI). Och idag, NVIDIA VD Jensen Huang använder sin keynote på bolagets GPU Technology Conference (GTC) händelse att meddela betydande förbättringar för NVIDIAS GPU hårdvara och plattform prestanda.

Läs också: NVIDIA morfar från grafik och spel till AI och djupt lärande
Läs också: NVIDIA gungor för AI staket

NVIDIA har även nyheter på området för autonoma fordon och professionella visualisering (läs: grafik) och min ZDNet kollega Asha McLean har alla detaljer på de två fronter:

Läs också: Nvidia omdefinierar autonoma fordon testa med VR simulering system
Läs också: Nvidia sträcker sig ” filmisk kvalitet bildåtergivning kapaciteten utöver spel

Det här inlägget, tiden kommer att fokusera på NVIDIAS AI/djupt lärande-relaterade meddelanden, som kan delas in i tre områden:

Uppgraderingar till Tesla V100 data center GPU-plattformen (och hårdvara produkter baserade på det)Programvara förbättringar för att öka prestanda för GPU-accelererade djupt lärande-baserade inferenceA nya partnerskap med en ARM som kommer att integreras Nvidia Deep Learning Accelerator technology i ARM-baserade IoT marker

Dubbla din njutning
Den riktigt stora nyheten är att i den grundläggande tekniken i sig: Tesla V100 Grafikprocessorer kommer nu att vara utrustade med 32 gb minne, vilket fördubblar tidigare 16 gb kapacitet. Mer minne innebär större, djupare djupt lärande modeller kan tillgodoses, vilket i sin tur innebär större noggrannhet i modellens prediktiva kraften.

Den nya GPU-teknik görs tillgänglig omedelbart på Nvidias egna DGX-system. Dessutom, Oem Cray, HP Enterprise, IBM, Lenovo, Supermicro, och Tyan kommer att rulla ut den i sina egna produkter under det andra kvartalet 2018 kalenderår.

Nya GPU byta och en 2 PF server
En andra viktig del i den förbättrade efterfrågan är införandet av NVSwitch, en trappa upp i Nvidias NVLink anslutningstekniken, som Nvidia säger har 5x bandbredd av även de bästa PCIe-baserade switchar, så att fler Gpu att vara sammankopplade. Som ett resultat, större datamängder kan bo och neurala nät kan vara utbildade i ett parallelized mode.

32GB GPU och NVSwitch meddelanden är imponerande individuellt. Men teknikerna är att de kombineras i en uppgradering till Nvidias DGX-1 server. Den nya servern, dubbade (förståligt nog) DGX-2 -, sport-16 i den nya V100 Grafikprocessorer för en summa av 512GB minne, som alla 16 Grafikprocessorer andel som ett enda minne, tack vare NVSwitch. Nvidia säger DGX-2 är världens första 2 PetaFLOP (2 x 10^15 floating point operations per second) och “är specialbyggda för data forskare trycka på de yttre gränserna för djupt lärande, forskning och design.”

Bortom djupa-learning-program, den nya 32GB Grafikprocessorer som fungerar bra i en mängd av high-performance computing (HPC) scenarier. Till slut, Nvidia uppdaterar sin CUDA, TensorRT, NCCL och cuDNN programvara samt dess Isak robotics SDK.

Anföra förbättring
De ovan nämnda TensorRT programvara, är en djupt lärande slutledning optimizer och körning. TensorRT 4, den uppdaterade versionen, ger upp till 190x snabbare prestanda än CPU-baserade slutsatsen, enligt Nvidia.

Bolaget har också arbetat med att integrera TensorRT med större djup inlärning ramar, inklusive Googles TensorFlow, Microsofts CNTK, Facebook ‘ s Caffe 2 och andra ONNX ramar som Chainer Apache MXNet och PyTorch. Nvidia och Google meddelar att de har integrerat Tensor RT i TensorFlow 1.7, leverera 8x högre slutledning genomströmning jämfört med vanlig GPU utförande.

Andra TensorRT integrationer inkluderar Microsofts WinML, Kubernetes och MathWorks’ ståndaktig MATLAB-program.

Ett ben upp, med ARM
Den sista delen av NVIDIA AI-relaterade nyheter oro företagets nya partnerskap med en annan chip tungvikt: ARM. Nvidia ‘ s Deep Learning Accelerator (NVDLA), som företaget öppen källkod i oktober förra året, är integrerad i ARMEN Projektet Trillium machine learning plattform, och på sin chip design för edge-enheter.

ARMEN gör inte marker, utan licenser chip design till tillverkare av chip. Integration av NVDLA i Trillium innebär att ett brett spektrum av Internet of Things (IoT) – enheter kan dra nytta av NVDLA prestanda optimeringar, vilket kommer att underlätta hög prestanda AI i sakernas internet och andra edge-enheter. AI på kanten oerhört minskar uppgifter om förflyttningar och gör IoT-enheter mer intelligent.

Bill of Material
Detta inlägg, som tidigare har jag skrivit om Nvidia, är en ganska tvättservice lista över nya funktioner och tekniker. Jag föredrar att genomsyra nyheter-driven inlägg med lite mer bakgrund och analys än vad jag har haft tid och rum för att ge här. Det är lite av en eftertanke, om, om vad som händer i GPU mark: att snabbt förbättra hårdvara, banbrytande ekosystem partnerskap, som kräver en massa försök bara att förstå vad alla dessa nya rön, är, än mindre vad de betyder.

Nvidia är klokt att ta så mycket territorium och marknadsandel som kan det. Så småningom, dess företräde kommer att vara institutionaliserade och vi ska kunna sakta ner och titta på allt detta coola grejer får tillämpas i Företag scenarier. Tills dess, vi har bara att hänga med i nyheterna.

Relaterade Ämnen:

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

Smarta Städer

0