Nvidia AI forskning peger på en udvikling af chip forretning

0
110

Nul

Hvad sker der, som flere af verdens computer opgaver bliver afleveret til neurale netværk?

Det er interessant, selvfølgelig, for Nvidia, en virksomhed, der sælger en hel pokkers af en masse chips til at træne neurale netværk.

Udsigten jubel Bryan Catanzaro, der er leder af anvendt dyb læring forskning på Nvidia.

“Vi ville elske for model-baseret til at være mere af den arbejdsbyrde,” Catanzaro fortalte ZDNet i denne uge i et interview på Nvidia ‘ s stand på NeurIPS machine learning-konferencen i Montreal. Catanzaro var den første person til at gøre neurale netværk arbejder på Nvidia, da han tog et job, der i 2011 efter at have modtaget sin Ph.d. fra University of California i Berkeley i elektroteknologi og datalogi.

Også: IBM, Apple og Facebook repræsenterer nye tilt mod forretning for ærværdige AI konference

img8166.jpg
Nvidia ‘ s head of applied machine learning, Bryan Catanzaro, siger selskabet er allerede godt forud for nystartede virksomheder i at gribe fat i, og som handler om, hvordan neurale netværk ændrer den computing landskab.

Model-baseret er en forkortelse for udskiftning af nogle af hvad bruges til at være eksplicitte programmering med neurale netværk, at udlede den måde at løse et design problem. Der var eksempler på, at skift på Nvidia ‘ s booth, som har store konsekvenser for computing.

Et eksempel er en artikel, der blev præsenteret på konferencen i denne uge hedder Video to Video Syntese, forfattet af ham selv og kolleger, sammen med en forsker fra MIT ‘ s Computer Science and Artificial Intelligence Lab. Det arbejde har til formål at syntetisere videoer af en gade scene ved at “forudsige fremtidige billeder i en video.”

Traditionelt sådanne opgaver vil blive programmeret ved hånden, den opgave at “rendering” at være en hård en. “I dag video er en trekant med en trekant, og kan koste en million dollars” eller mere, siger Catanzaro.

Også: AI Start Jagtfalk spins væld af chips for machine learning

I stedet, den nye tilgang tager videoer af gadebilleder og feeds nogle af de billeder til en generativ kontradiktorisk netværk, eller GAN, som derefter forudsiger billeder i en video. Det bygger på forudgående arbejde, der syntetiseres billeder af ting givet et par prøver.

Den vigtige del er, at GAN er at finde ud af den opgave, rendering, udskiftning besværlige fysik specifikationer i den traditionelle tilgang.

Nvidia har taget den tilgang til video-spil-stil simuleringer, med nogle interessante resultater. I Nvidia stand på NeurIPS, en arkade-stil førersædet blev sat op, og de besøgende havde mulighed for at køre gennem en simuleret street scene. Gaden scene i dette tilfælde viste nogle af de nuværende begrænsninger i state of the art. Snarere end at se foto-realistiske, det var fornemmelsen af en akvarel maleri med farver og teksturer af bygninger og biler, der er skiftende, så man kørte gennem simulation.

img8171.jpg
En deltager på NeurIPS 2018 machine learning konference drev gennem et Nvidia simulator af en gade scene, skabt ved at anvende en generativ kontradiktorisk netværk, eller GAN, at en indledende simulering af en gade.

De artefakter, siger Catanzaro, er en afspejling af spørgsmål mellem at oversætte fra “Unreal Engine 4” 3D-system, der er i uddannelse GAN-i tilfælde af kørselssimulator. “Når Uvirkeligt giver os gjort verden til at begynde med, og det gør ikke den fulde gengivelse, det skaber blot en skitse, det er alt for præcis, og alt er perfekt.

Også: Chip start Efinix håber, at bootstrap AI indsats i tingenes internet

“Men streger og skitser fra real videoer er faktisk bedre, de er lidt bølget, og vi har brug for rendering til at være mere som real video.”

Catanzaro beskriver, hvad der lyder som en slags dialektisk proces i fremtiden, hvor kilden 3D-rendering og den deraf genererede rendering eller anden måde gøre hinanden bedre. “Vi vil gerne tænke på det som bootstrapping,” siger Catanzaro.

Alt dette har konsekvenser for Nvidia ‘ s chip virksomhed: Catanzaro chef Jonas Albums, lederen af GPU arkitektur på Nvidia. Der er en sammenhæng mellem, hvad der er lært om neurale net ” kapaciteter, og hvordan den finder sin vej ind i silicium.

Specifikt, udskiftning af hånd-kodning i video-gengivelse viser vejen til et tidspunkt, hvor model-baserede metoder vil få brug for mere og mere dedikeret kredsløb til neurale net.

Også: AI start Flex Logix billethajer langt højere ydelse end Nvidia

“Beregninger i AI er et bedre match for halvlederfysik end traditionelle render opgaver,” siger Catanzaro, at sammenligne den traditionelle GPU arbejde “shader” enheder til multiplikator-akkumulator-opgaver, som kan bruges til mange neurale netværk applikationer.

“MAC – [multipy akkumulerer operation] er compute-bundet snarere end kommunikation-bundet,” forklarer han. Og så, “som transistorer og tråde, der bliver mindre, ledninger må ikke få små så hurtigt som transistorer,” hvilket betyder, at den traditionelle rendering pipeline bliver limet op af problemet med at flytte data over ledninger.

Grunden til, Catanzaro er fint med det er, at Nvidia ‘ s chips har været at ændre deres striber mere end nogle tror. Både af Nvidia ‘ s vigtigste chip arkitekturer, Turing og Volta, har tensor kerner, som kan operere direkte på tensor strukturer, der udgør formere samle driften af neurale net.

Skal læse

Nvidia tog uskyldig AI til at rense vandmærker fotos (CNET)Nye NVIDIA chip kan gøre det muligt for AI-og robotteknologi i flere brancher (TechRepublic)

Mere og mere, sådan tensor kapacitet er ved at tage over transistor plads på silicium dø fra traditionelle shader kredsløb af en GPU.

“Tensor kerner er en bedre egnet til den fremtidige semiconductor manufacturing teknologi,” siger Catanzaro. “De er mere energieffektive, og jeg tror, de vil skala bedre end traditionelle Gpu’ er.”

Han bemærker, at en Turing-baseret enhed, kan producere seksten trillioner floating point operationer per sekund i sin traditionelle shader enheder, men tensor kerner beat, der med en bred margin med 230 billioner per sekund.

Også: Google siger, ‘eksponentielle vækst af AI er ved at ændre karakter beregne

Der er selvfølgelig en række nystartede virksomheder, der sigter mod at tage forretning fra Nvidia ved at argumentere for, chippen er nu mindre end ideelt for AI, herunder Bristol, England-baseret Graphcore.

Men udbredelsen af tensor kerner i Nvidia chips betyder, “Vi er enige med dem, mere end de er enige med deres egne udsagn,” Catanzaro siger med et smil.

Nvidia er at gøre en ende køre rundt i en sådan konkurrence, foreslår han. “Det er fint at tale om disse systolisk arrays,” samlinger af multiplikator-akkumulator-enheder, at de nystartede tout, siger han. “Men vi har været i shipping dette i silicon år.”

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede Emner:

Processorer

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0