AI Start Cornami afslører detaljer om neurale net chip

0
98

Nul

Tech verden er oversvømmet i startup-virksomheder, der udvikler særlige chips for kunstig intelligens og maskinindlæring. Nogle af de mest spændende af dem dukkede op i denne uge på the Linley Group Falde Processor Konference, arrangeret af ærværdige halvleder analyse firma Linley Group, i Santa Clara, Californien.

ZDNet gik til showet for at få den lowdown på nogle af disse stealth-operationer.

Torsdag morgen bød på en præsentation af en startup-firma kaldet Cornami, baseret her i Santa Clara.

Co-synes lidt bedre og CTO, Paul Mestre, der er beskrevet en ny måde at arrangere elementer i en chip til at gøre både machine learning “uddannelse” – hvor det neurale netværk, der er udviklet — samt “slutning”, hvor det neurale netværk, der fungerer på en konstant grundlag for at give svar.

Cornami har været i drift i stealth-mode, og dette var første gang Mestre trak åbne gardinet på nogle af detaljerne i, hvordan virksomhedens chips arbejde.

Også: Google annoncerer Kant TPU, Cloud IoT-Kant software

Cornami har til formål at forsyne sine chips til en lang række markeder, herunder i “kant computing”, hvor biler og forbrugerelektronik har et særligt behov for chips, der er meget lydhør ydeevne og er energi-effektive i, hvordan de kører neurale netværk.

Den chip, sagde Mestre, går tilbage til teknologi i 1970’erne og 1980’erne, der kaldes en “systolisk” array. Et systolisk array har et væld af design-elementer, såsom en multiplikator-akkumulatoren, til at udføre matrix multiplikationer, der er den grundlæggende beregne enhed af neurale netværk. Ledninger oprette forbindelse til disse elementer til en anden, og at hukommelse, i en gittervisning. Systolisk arrays er så opkaldt efter systolisk funktion af hjerte: som blod flow, data er “pumpet” gennem de beregningsmæssige elementer.

Systolisk arrays aldrig tog ud, da de først dukkede op, men de er ved at forme sig som den dominerende måder at strukturere en AI-chip, baseret på præsentationer i denne uge. “Har du set det, det er cool, det er fra 70’erne,” sagde Mestre systolisk arrays.

“Google er at bruge dem, og Microsoft, og en million nystartede virksomheder,” bemærkede han, at populariteten af systolisk arrays.

Men Mestre drøftet, hvordan Cornami har en unik tilgang til systolisk arrays. “Forbandelsen af systolisk array er, at de er pladsen,” sagde Mestre. Han henviste til, at symmetrisk arrangement af multiplikator-akkumulatorer. Becauser af, at stive arrangement, flytte data ind og ud af dem, beregne elementer tager en enorm mængde af chip ‘ s indsats — en større indsats i virkeligheden, end beregne sig selv inde beregne hver element.

“Hvor kommer den energi, der går i arv silicium?” er det store spørgsmål, sagde Mestre. “Data bliver dumpet i DDR [DRAM-hukommelse], og det er at gå til en central for beregningen, så de data, der går fra DDR til Level 3 cache, Level 2 cache, og Level 1 cache, og derefter ind i registret, og derefter beregne. Så er jeg, hvis jeg kører ud af kerner, jeg er nødt til at gøre det omvendt, jeg er nødt til at gå ud og dumpe alle, at midlertidige data tilbage i registret, L1 cache L2, L3, og igen og igen.”

Også: Google preps TPU 3.0 til AI, machine learning, model uddannelse

Bare for at “røre” L1 cache, forklarede Mestre, der tager fire gange så meget energi af den faktiske beregning. “Og gud hjælpe dig, hvis du rører DRAM,” sagde han, og det øger den strøm, der kræves endnu mere til at gå ud chip.

image.jpg

Cornami argumenterer for sine chips for machine learning vil være langt mere kraftfuld og effektiv ved at arrangere beregne elementer i ikke-pladsen arrays. Et eksempel her på en vifte arrangeret i en ikke-kvadratisk form til at køre et helt lag af SegNet neurale netværk.

Cornami Inc.

“De mest energi-ineffektive ting i legacy-maskiner er flytning af data,” sagde Mestre. Den løsning, er at have tusindvis af kerner. Ved at holde tusindvis af kerner travlt, man kan holde fra at gå tilbage til hukommelse delsystemet og i stedet blot rute input og output af compute fra det ene element til det næste. “Hvis du har nok kerner, 8,000, eller 16.000, eller 32,000 kerner, kan vi holde den helhed af det neurale netværk på dør,” sagde han.

Og så for at undgå, at omkostningerne ved at gå ind og ud af hukommelsen, Cornami chips arrangere deres kredsløb sådan at beregne elementer, der kan være koblet til en række geometriske arrangementer, der effektivt at organisere edb-aktivitet på chip på en måde, der ændrer sig med de krav, de neurale netværk i øjeblikket.

“Cornami bygget en arkitektur, hvor systolisk arrays kan være bygget af enhver størrelse og form, on demand”. Som den glide op ovenfor viser, systolisk array kan være dynamisk re-arrangeret til mærkelige nye geometrier, som ikke er pladser. Disse mærkelige figurer af arrays gøre det effektivt til at flytte ind-og udgange mellem beregne elementer. Og som et resultat, Cornami chip kan minimere hukommelse og cache referencer, og dermed “dramatisk forbedre magt, ventetid og performance.”

Også: Intel-backed start Paperspace genopfinder dev tools for en AI, cloud-æra

Masters pralede med, at med en sådan fleksibelt, en enkelt Cornami chip kan behandle en hel neurale netværk, og vil være i stand til at erstatte de forskellige kombinationer af Cpu ‘er, Gpu’ er, Fpga og ASICs typisk bruges til at køre neurale netværk. Det er en “data center på en chip,” sagde han, med store konsekvenser for at sætte AI i “kant computing”, såsom biler.

Masters fremviste nogle statistikker for performance: kører “SegNet” neurale netværk til billede anerkendelse, Cornami chip er i stand til at behandle 877 frames per sekund i de neurale netværk, der kun bruger 30 watt, i forhold til et Nvidia “Titan V” GPU, hvilke processer, der kun 8,6 billeder per sekund på 250 watt.

Cornami modtaget Serie B venture finansiering af $3 millioner tilbage i September 2016 Virkning fra Venture Kapital. Virksomheden har modtaget efterfølgende finansiering, men afviste at oplyse, hvor meget.

Tidligere og relaterede dækning:

En tidlig AI adoptanter rapport store afkast

Ny undersøgelse viser, at kunstig intelligens teknologi betaler sig, men organisationer står over for udfordringer.

Oracle introducerer nye enterprise digital assistent

Går ud over typiske chatbots bygget til et enkelt formål, Oracle Digital Assistent kan blive uddannet til at støtte domæne færdigheder fra flere forskellige programmer

AI levere afkast til virksomhedens early adopters, men ikke industrier er skabt lige

Deloitte ‘ s årlige AI undersøgelse afslører en smule realisme, cybersecurity bekymringer og 17 procent median afkast på investeringer.

Machine learning nu top dygtighed søges af udviklere

SlashData ‘ s seneste undersøgelse af 20.000 udviklere identificerer machine learning and data videnskab er de færdigheder at kende til 2019.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er digital transformation? Alt, hvad du behøver at vide

Digital transformation: hvad det er, hvorfor det er vigtigt, og hvad de store tendenser er.

AI og Internet of Things vil drive digital transformation gennem 2020

Undersøgelse afslører, IoT, AI og synkron ledger tech (blokkæden) prioriteringer.

Relaterede historier:

Der er ingen rolle for AI eller data videnskab: dette er et team effortStartup Slægt bringer splint af håb for AI i roboticsAI: udsigt fra Chief Data Videnskab OfficeSalesforce introer Einstein Stemme, en AI stemme assistent for enterprisesIt er ikke er de job, AI er ødelæggende for at genere mig, det er dem, der er growingHow Facebook skalaer AIGoogle Duplex bekymrer mig, CNET, Hvordan Google Hjem er bedre end Amazon Echo CNETDigital transformation: En guide til CXOs (Tech Pro Forskning)Hvad virksomheder vil fokusere på for digital transformation i 2018Digital transformation: Tre måder at gøre det rigtige i din virksomhed

Relaterede Emner:

zdnet_topic.relaterede.edge-design

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0