Noll
Tjugo-åtta år sedan, Geoff Tate har hjälpt till att skapa ett chip som heter företaget Rambus. Tekniken är i varje DRAM-minne del att fartyg som idag. Men Tate tror att han nu hittat en större marknad inom artificiell intelligens och maskininlärning.
“Jag tror att neurala nätverk kommer att vara en större marknad än vad vi gjorde med Rambus,” säger Tate, vd för start Flex Logix, i en intervju med ZDNet på åskådarplats i Linley Grupp Faller Processor Konferensen, som anordnades av ärevördiga halvledare analys fast Linley Grupp, i Santa Clara i Silicon Valley.
“Neurala nätet marker kommer att explodera i både volym producerade chips och komplexitet,” Tate sagt. “Om du skulle göra en analogi till de dagar av [Intels] x86, vi är bara vid det skede av 286 just nu.”
Flex, som grundades för fyra år sedan och backas upp av venture företag Lux Kapital och Eclipse Ventures, kommer efter den marknad som kallas “inferencing på den kanten.” Slutsatsen är den del av maskinen lärande när det neurala nätet använder det som det har lärt sig under utbildningen fas att leverera svar på nya problem.
Också: AI Start Cornami avslöjar detaljer om neurala nätet chip
“Kanten”, i detta fall hänvisar till enheter utanför datacentret, till exempel självstyrande bilar eller sakernas internet prylar. Därför inferencing på kanten kan innebära neurala nät för saker som att hjälpa till bilen se vägen eller att hjälpa en ansluten kamera identifiera personer i publiken.

Flex Logix s kombinerar grupper av mutliplier-ackumulator kretsar i banker av SRAM, med en speciell krets som används för att ansluta alla tillsammans kallas “XFLX.” Företaget hävdar detta arrangemang av delar kommer att hålla processorn upptagen mer av tiden med de uppgifter den behöver, hjälpa till att vida överträffa Nvidias Grafikprocessorer på slutledning av maskininlärning.
Företaget presenterade på visa sin “NMAX” teknik. Detta är baserat på vad som är känt som en “eFPGA,” en typ av programmerbar krets. Den NMAX kombinerar massor av identiska beräkna element, kallas multiplikatorn-ackumulatorer, att utföra matris-multiplikation som är den grundläggande uppgiften i neurala nätverk. Multiplikatorn-ackumulatorer göra upp en “systoliska kedjor,” en gammal dator design som upplever en renässans så många chip-tillverkare använder det för AI. (Se rapport i förra veckan om chip start-up Cornami.)
Dessa grupper av multiplikator-ackumulatorer är omgiven av SRAM-minne kretsar, och en hög hastighet samman kallas “XFLX” som ansluter multiplikator-ackumulatorer till en annan och SRAM. SRAM har “vikter,” numeriska värden som formar den neurala nätverk.
Tate betonar XFLX samtrafik som nyckeln till chip prestanda. Genom att kunna effektivt flytta data till och från SRAM till kluster av multiplikator-ackumulatorer, hela chip kan vara mer effektiv. Multiplikatorn-ackumulatorer är fullt upptagna med att alltid ha den information de behöver, och chipet kan för att minimera eller helt undvika helt och hållet, är den kostsam process för att gå off-chip för DRAM. “Att skära DRAM betyder lägre kostnader och effekt,” Tate sagt. En speciell kompilator-program håller på att utvecklas av Flex som optimerar flödet av data kring chip.
Tate, och hans co-grundare Cheng Wang, teknisk chef, tog sikte på Nvidia ‘ s graphics processing unit, eller Gpu, för närvarande är den helt dominerande formen av compute. De hävdar att Grafikprocessorer, medan bättre än Processorer, är synnerligen ineffektiva för behandling av neurala nätverk.
“För det mesta ett Nvidia-MAC [multiplikator-ackumulator] är att göra ingenting, så de behöver fyra gånger så mycket av maskinvara” för att få samma resultat, Tate sagt.
Också: Google säger ” exponentiell tillväxt av AI är föränderliga natur beräkna
Wang hävdade i sin formella presentationen på mässan för att NMAX chip har tio gånger priset/prestanda med Nvidias Tesla T4″ GPU. Den XFLX samman, och omvandlingsbara karaktär av FPGA-kretsar, menar NMAX är inaktiv mindre av tiden, och därför har en högre “utnyttjande.” De flesta AI-chip företag, sade Wang, har olika påståenden om “tera-operationer per sekund” eller TOPPAR, som de kan utföra, som utlovar mer och mer.
Men Wang sa att de flesta kunder är mer intresserade av att faktisk genomströmning och latens de kan uppnå. Ett högre utnyttjande bör producera mer i vägen för faktiska genomströmningen oavsett rå TOPPAR räkna är.
På benchmark “ResNet-50” neurala nätverk för bildigenkänning, Wang sade NMAX kan uppnå en “effektivitet” i sin multiplikator-ackumulatorer för 87 procent, jämfört med mindre än 25 procent för Tesla T4 och andra typer av marker.
Flex Logix skryta med bättre effektivitet i sina marker på benchmark-tester med vissa maskininlärning neurala nät såsom “ResNet-50.”
“I våra kundmöten, de har redan avstämda allt detta, och de vet att de frågor som i verkliga kontra utlovade prestanda,” Tate sagt. “Vi pratade med ett företag som sade att frågan inte var hur många TOPPAR kan man göra, det var hur många kan du göra med en watt”. Det beror på kanten enheter kan begränsas av batteriets livslängd, till skillnad från servrar som sitter i ett datacenter.
“Vi har inte sett något för att matcha vår förmåga,” Tate sagt. “Och faktiskt ResNet-50 är även lite missvisande, eftersom det i den verkliga världen, i motsats till akademiska presentationer, neurala nätverk kommer att vara mycket större än ResNet-50, och dessa nätverk verkligen kommer att skatt hårdvara.”
NMAX kommer att säljas till kunder som vad som kallas en “IP core”, en krets design som de kan använda i sina egna marker. Delar förväntas att “tape out”, vilket innebär, att de kommer att vara tillgängliga för kunder, under den senare hälften av nästa år.
Tidigare och relaterade täckning:
Vad är AI? Allt du behöver veta
En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.
Vad är djupt lärande? Allt du behöver veta
Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.
Vad är lärande? Allt du behöver veta
Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.
Vad är cloud computing? Allt du behöver veta om
En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.
Relaterade artiklar:
Det finns ingen roll för AI eller data vetenskap: det här är ett lagarbete Start Släkt ger strimma av hopp för AI i robotik AI: vy från Chief Data Vetenskap Kontor Salesforce intron Einstein Röst, en AI röst assistent för företag att det inte är Det jobb AI är förstört som stör mig, det är de som växer Hur Facebook skalor AI
Relaterade Ämnen:
Digital Omvandling
CXO
Sakernas Internet
Innovation
Affärssystem
0