AI start Flex Logix billethajer langt højere ydelse end Nvidia

0
165

Nul

Tyve-otte år siden, Geoff Tate bidraget til at skabe en chip selskab kaldet Rambus. Dens teknologi er i hvert DRAM hukommelse, at en del skibe i dag. Men Tate tror, han har nu fundet et større marked i kunstig intelligens og maskinindlæring.

“Jeg tror, at neurale netværk vil være et større marked, end hvad vi gjorde med Rambus,” siger Tate, chief executive for opstart Flex Logix, i et interview med ZDNet på sidelinjen af Linley Group Falde Processor Konference, arrangeret af ærværdige halvleder analyse firma Linley Group, i Santa Clara i Silicon Valley.

“Neurale net chips kommer til at eksplodere i både mængden af chips produceret og kompleksitet,” Tate sagde. “Hvis du skulle lave en analogi til de dage af [Intel’ s] x86, vi er i den fase af 286 lige nu.”

Flex, der blev grundlagt for fire år siden, og bakkes op af venture virksomheder Lux Kapital og Eclipse Ventures, er at gå efter det marked, kendt som “inferencing på kanten.” Inferens er en del af machine learning, når det neurale net bruger, hvad det har lært i løbet af uddannelsen fase til at levere svar på de nye problemer.

Også: AI Start Cornami afslører detaljer om neurale net chip

Den “kant”, i dette tilfælde, henviser til enheder uden for datacentret, som selvkørende biler eller IoT gadgets. Derfor, inferencing på kanten, vil kunne medføre neurale net til ting, såsom at hjælpe bil se vejen eller hjælpe med et kamera, der er tilsluttet identificere folk i skarer.

flex-logix-nmax-array-nov-2018.png

Flex Logix s kombinerer grupper af mutliplier-akkumulator kredsløb i bredden af SRAM, med et særligt kredsløb for at forbinde det alle sammen kaldes “XFLX.” Selskabet hævder, at dette arrangement af dele vil holde processor optaget mere af den tid, med de data, de har behov for, til at hjælpe langt bedre end Nvidia ‘s Gpu’ er ved slutning af machine learning.

Virksomheden afsløret på sin vis “NMAX” teknologi. Dette er baseret på, hvad der er kendt som en “eFPGA,” en slags programmerbar chip. Den NMAX kombinerer tonsvis af identiske beregne grundstoffer, de såkaldte multiplikator-akkumulatorer, der udfører den matrix multiplikationer, der er den grundlæggende opgave i neurale netværk. Den multiplikator-akkumulatorer, der udgør en “systolisk array,” en gammel computer design, der oplever en revival som mange chip-producenter bruge det til AI. (Se rapport i sidste uge på chip start-up Cornami.)

Disse grupper af multiplikator-akkumulatorer, der er omgivet af SRAM hukommelse kredsløb, og en high-speed sammenkoble kaldet “XFLX”, der forbinder den multiplikator-akkumulatorer til en anden og til SRAM. SRAM holder “vægt,” de numeriske værdier, der former de neurale netværk.

Tate understreger XFLX sammenkoble som nøglen til chip ‘ s ydeevne. Ved at være i stand til effektivt at flytte data ind og ud af SRAM til klynger af multiplikator-akkumulatorer, det hele chippen kan blive mere effektiv. Den multiplikator-akkumulatorer, der er travlt optaget af altid at have de data, de har brug for, og den chip, der kan minimere, eller endog at undgå helt, den dyre proces med at gå off-chip til en DRAM. “Cutting DRAM betyder lavere omkostninger og effekt,” Tate sagde. En særlig compiler program er ved at blive udviklet af Flex, der optimerer data flow omkring chip.

Tate og hans medstifter Cheng Wang, der er chef for teknik, tog sigte på Nvidia ‘s graphics processing units, eller Gpu’ er, i øjeblikket er den dominerende form for beregning. De hævder, at Gpu ‘er, mens det er bedre end Cpu’ er, er alt for ineffektivt til behandling af neurale netværk.

“De fleste af den tid, et Nvidia MAC [multiplikator-akkumulator -] er at gøre noget, så de har brug for fire gange så meget hardware” for at få de samme resultater, Tate sagde.

Også: Google siger, ‘eksponentielle vækst af AI er ved at ændre karakter beregne

Wang hævdede i sin formelle præsentation på den vis, at NMAX chip har ti gange den pris/ydelse af Nvidia ‘ s “Tesla T4″ GPU. Den XFLX sammenkoble, og rekonfigurering karakter af FPGA-kredsløb, betyder det NMAX er inaktiv mindre af tiden, og derfor har en højere udnyttelse.” De fleste AI chip selskaber, sagde Wang, har forskellige krav om “tera-operationer per sekund,” eller TOPPE, de kan udføre, og de lover at levere mere og mere.

Men Wang sagde, at de fleste kunder er mere bekymret for den faktiske throughput og latenstid, de kan opnå. Højere udnyttelse skal producere mere på den måde faktiske kapacitet uanset den rå TOPPE tæller.

På den toneangivende “ResNet-50” neurale netværk til billede anerkendelse, Wang sagde NMAX kan opnå en “effektivitet” af sin multiplikator-akkumulatorer, der er på 87 procent, sammenlignet med mindre end 25 procent for Tesla T4 og andre typer af chips.

flex-logix-nvidia-comparison-nov-2018.png

Flex Logix kan prale af en bedre effektivitet i sine chips på benchmark tests, der involverer visse machine learning neurale net som “ResNet-50.”

“I vores kunde møder, de har allerede benchmarkes alt dette, og de kender de problemstillinger, real versus lovede ydelse,” Tate sagde. “Vi talte med en virksomhed, der sagde, at spørgsmålet var ikke, hvor mange TOPPE kan du gøre, det var, hvor mange kan du gøre med en watt” af magten. Det er fordi, kant enheder kan være begrænset af batteriets levetid, i modsætning til servere, der sidder i et datacenter.

“Vi har ikke set noget til at matche vores kapacitet,” Tate sagde. “Og faktisk ResNet-50 er endda en smule misvisende, fordi der i den virkelige verden, i modsætning til faglige præsentationer, neurale netværk kommer til at være langt større end ResNet-50, og disse netværk vil virkelig skat hardware.”

NMAX vil blive solgt til kunder, som hvad der kaldes en “IP-core,” et kredsløb design, at de kan indarbejde i deres egne chips. Dele forventes at “tape out”, hvilket betyder, at de vil være til rådighed for kunderne, i den sidste halvdel af næste år.

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Der er ingen rolle for AI eller data videnskab: dette er en holdindsats Start Slægt bringer splint af håb for AI i robotteknologi AI: udsigt fra Chief Data Videnskab Kontor Salesforce-introer Einstein Stemme, en AI stemme assistent for virksomheder er det ikke Det job AI er ødelæggende for at genere mig, det er dem, der er voksende, Hvordan Facebook skalaer AI

Relaterede Emner:

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0