AI Start Cornami avslöjar detaljer om neurala nätet chip

0
110

Noll

Den tekniska världen är full i startup-bolag som utvecklar särskilda marker för artificiell intelligens och maskininlärning. Några av de mest spännande och kära visade upp sig denna vecka i Linley Grupp Faller Processor Konferensen, som anordnades av ärevördiga halvledare analys fast Linley Grupp, i Santa Clara, Kalifornien.

ZDNet gick till mässan för att få lowdown om några av dessa stealth verksamhet.

Torsdag morgon innehöll en presentation av ett nystartat företag som heter Cornami, baserat här i Santa Clara.

Co-fonder och CTO, Paul Masters, beskrivs ett nytt sätt att ordna delarna av ett chip för att göra både machine learning “utbildning” – där de neurala nätverk är utvecklat — liksom “slutledning”, där det neurala nätverket utför på en konstant nivå för att ge svar.

Cornami har varit i drift i stealth mode och detta var första gången Masters drog öppna gardinen på några detaljer för hur bolagets marker arbete.

Också: Google lanserar Edge TPU, Moln IoT Kanten programvara

Cornami som mål att leverera sina marker till många marknader, bland annat i “kanten computing”, där bilar och hemelektronik har ett särskilt behov av marker som har mycket följsamma prestanda och energi-effektiva i hur de kör neurala nätverk.

Chip, sade Masters, går tillbaka till tekniken av 1970-talet och 1980-talet, en så kallad “systoliskt” array. En systoliska kedjor har en uppsjö av design-element, såsom en multiplikator-ackumulator, att utföra matris-multiplikation som är den grundläggande beräkna enhet av neurala nätverk. Kablar anslut dessa delar till varandra och till minne, i ett rutnät. Systoliska kedjor heter så för att den systoliska funktionen av hjärtat: som blodflödet, data är “pumpas” genom dessa computational element.

Systoliska kedjor aldrig tog fart när de dök upp, men de är ser ut som den dominerande sätt att strukturera en AI-chip, som bygger på presentationer denna vecka. “Har du sett det, det är cool, det är från 70-talet,” sade Masters för systoliska kedjor.

“Google använder dem, och Microsoft, och en zillion startups,” konstaterade han i popularitet av det systoliska kedjor.

Men Mästarna diskuterade hur Cornami har en unik metod för systoliska kedjor. “Förbannelse för systoliska kedjor är att de är fyrkantiga,” quipped Masters. Han hänvisade till att symmetrisk arrangemang av multiplikator-ackumulatorer. Becauser för att styva arrangemang, flytta data till och från dem beräkna element tar upp en enorm mängd chip arbete — mer ansträngning än compute sig inuti varje beräkna element.

“Vart tar energin gå i arv kisel?” är den stora frågan, sade Masters. “Data blir dumpad i DDR [DRAM-minne], och det har att gå till kärnan för beräkning, så att data går från DDR till Nivå 3 cache, Nivå 2-cache, och den Nivå 1-cache, och sedan in i registret, och sedan i beräkningar. Då jag om jag kör ut ur kärnorna, jag måste göra det omvända, måste jag gå tillbaka ut och dumpa alla som tillfälligt tillbaka data i registret, L1-cache, L2, L3, och över och över.”

Också: Google preps TPU 3.0 för AI, maskininlärning, modell träning

Bara för att “touch” L1-cache, förklarade Mästare, tar fyra gånger så mycket energi av den faktiska beräkningar. “Och gud hjälpe dig om du kommer i kontakt DRAM”, sade han, kör upp den kraft som krävs ännu mer för att gå ut på chip.

image.jpg

Cornami hävdar sina marker för lärande kommer att vara mycket mer kraftfull och effektiv genom att arrangera beräkna element i icke-kvadratiska matriser. Ett exempel här på en rad arrangerade i en icke-kvadratisk form för att springa en hel lager av SegNet neurala nätverk.

Cornami Inc.

“Den mest energi-ineffektiva sak i äldre maskiner är att flytta data”, sade Masters. Lösningen är att ha tusentals kärnor. Genom att hålla tusentals kärnor upptagen, man kan hålla sig från att gå tillbaka till minne av delsystem och istället helt enkelt rutten ingångar och utgångar beräkna från ett moment till nästa. “Om du har tillräckligt med kärnor, 8 000 dollar, eller cirka 16 000, eller cirka 32 000 kärnor, kan vi hålla hela den neurala nätverk på dö,” sade han.

Och så för att undvika att kostnaden för att gå in i och ut ur minnet, Cornami marker ordna sina kretsar sådana att beräkna delarna kan kopplas till en mängd olika geometriska arrangemang som på ett effektivt sätt organisera computing verksamhet på-ett-chip på ett sätt som förändrar kraven på den neurala nätverk vid tidpunkten.

“Cornami byggt en arkitektur där systoliska kedjor kan byggas av olika form och storlek, on demand”. Som bilden ovan visar, för systoliska kedjor kan vara dynamiskt hemställer till konstiga nya geometrier som inte rutor. De konstiga former av matriser göra det effektivt att flytta ingångar och utgångar mellan beräkna element. Och som ett resultat, Cornami chip kan minimera minne och cache referenser, och därmed “dramatiskt förbättra makt, svarstid och prestanda.”

Också: Intel-stödda start Paperspace uppfinner dev verktyg för en AI, moln eran

Masters skröt om att med en sådan flexibelt, en enda Cornami chip kan bearbeta en hel neurala nätverk, och kommer att kunna ersätta de olika kombinationer av Cpu, Gpu, Fpga och Asic vanligtvis används för att köra neurala nätverk. Det är en “data center on-a-chip”, sade han, med stora konsekvenser för att sätta AI i “kanten computing”, såsom bilar.

Masters visade upp lite statistik för prestanda: med “SegNet” neurala nätverk för bildigenkänning, Cornami chip är kunna behandla 877 bilder per sekund i det neurala nätverket med hjälp av endast 30 watt, vilket kan jämföras med Nvidia “Titan V” GPU, vilka processer som bara 8,6 bilder per sekund på 250 watt.

Cornami fått av Serie B, venture-finansiering av $3 miljoner-redan i September 2016 från Inverkan av riskkapital. Företaget har fått en efterföljande finansiering, men avböjde att avslöja hur mycket.

Tidigare och relaterade täckning:

Tidigt AI adopters betänkande stor avkastning

Ny studie visar artificiell intelligens är att betala av, men organisationer står inför utmaningar.

Oracle lanserar nya företag digital assistent

Som går utöver typiska chatbots byggd för ett enda syfte, Oracle Digital Assistent kan vara utbildade för att stödja domän kompetens från flera olika program

AI leverera avkastning till företagets tidiga, men inte industrier skapade lika

Deloittes årliga AI undersökningen visar lite av realism, it-säkerhet oro och 17 procent median avkastning på investeringen.

Maskininlärning nu upp kompetens som söks av utvecklare

SlashData: s senaste undersökning av 20 000 utvecklare identifierar maskinen lärande och data vetenskap är kompetens att veta för 2019.

Vad är djupt lärande? Allt du behöver veta

Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.

Vad är digital omvandling? Allt du behöver veta

Digital omvandling: vad det är, varför det är viktigt, och vad de stora trenderna är.

AI och Internet of Things kommer att driva digital omvandling genom 2020

Forskning studien visar på sakernas internet, AI och synkron ledger tech (blockchain) prioriteringar.

Relaterade artiklar:

Det finns ingen roll för AI eller data vetenskap: detta är en grupp effortStartup Släkt ger strimma av hopp för AI i roboticsAI: vy från Chief Data Vetenskap OfficeSalesforce intron Einstein Röst, en AI röst assistent för enterprisesIt är inte jobb AI är förstört som stör mig, det är de som är growingHow Facebook skalor AIGoogle Duplex oroar mig CNETHur Google Hem är bättre än Amazon Echo CNETDigital omvandling: En guide för CXOs (Tech Pro Forskning)Vilka företag kommer att fokusera på för digital transformation i 2018Digital omvandling: Tre sätt att få det rätt i ditt företag

Relaterade Ämnen:

zdnet_topic.relaterade.edge-design

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

0