
Loihi 2, uttales “Lav-EE-he”, kutter i halvparten av størrelsen på brikken og multipliserer åtte ganger antallet kunstige piggneuroner. Her er utsiden av brikken sett med kontaktene for å koble til kretskortet.
Walden Kirsch/Intel
Intel avslørte torsdag den andre versjonen av Loihi nevromorf brikke, “Loihi 2”, en prosessor for kunstig intelligens som den hevder mer gjenspeiler prosessene som skjer i menneskehjernen sammenlignet med annen AI -teknologi.
Den nye brikken krympes i to i en mer avansert prosessnode, som nå måler 31 kvadrat millimeter, men den inneholder en million kunstige piggneuroner, åtte ganger så mange som forgjengeren.
< p>Og brikken får ny fleksibilitet ved å ha mer mer omfattende mikrokode som ligger til grunn for driften av de piggne nevronene.
Loihi, uttales “lav-EE-he”, er oppkalt etter et hawaiisk sjøfjell, en ung vulkan, “som dukker opp fra havet når som helst nå”, som Mike Davies, Intels direktør for nevromorfisk databehandling, uttrykker det.
Den nye brikken får også et nytt utviklingsramme, kalt Lava, som er skrevet i Java og utgitt som åpen kildekode. Utviklere kan jobbe med programmer for Loihi uten å ha tilgang til maskinvaren. Programvaren er tilgjengelig på Github.
Intel avduket den første versjonen av Loihi tilbake i 2017, og beskrev den den gang som en brikke som ville “hente inspirasjon fra hvordan nevroner kommuniserer og lærer, ved hjelp av pigger og plastsynapser som kan moduleres basert på timing.”
< p> Chippen er utformet som et “maske” av beregningskjerner
Den første Loihi ble utformet ved hjelp av Intels 14-nanometer prosessteknologi. Den nye versjonen bruker Intels Intel 4 -teknologi, ettersom selskapet har rebranded sine produksjonsgenerasjoner. Det antas å være i utgangspunktet en 7-nanometer-brikke, selv om Intel ikke har avslørt alle detaljer om prosessteknologien. Teknologien er en pre-produksjonsversjon av Intel 4, understreker selskapet.
Chippen får en mer fleksibel mikrokode som lar programmerere “tildele variabler og utføre et bredt spekter av instruksjoner organisert som korte programmer ved hjelp av en forsamlingsspråk, “uttaler Intel.
Disse programmene har tilgang til nevral tilstandsminne, den akkumulerte synaptiske inngangen ai for det nåværende tidssteget, tilfeldige biter for stokastiske modeller og en tidsstegsteller for tidsregulert beregning. Instruksjonssettet støtter betinget forgrening, bitvis logikk og fastpunktsregning støttet av maskinvaremultiplikatorer.
“Det legger til mye generellitet, programmerbarhet, mens vi tidligere var begrenset av de faste funksjonssettene i Loihi 1,” sa Intels Davies i et intervju med ZDNet på telefon.
Intel har forbedret ytelsen på mange nivåer med brikken, sa han.
“Vi har arbeidsbelastninger som vil løpe over ti ganger raskere, og på kretsnivå er vi et sted mellom to til syv ganger, avhengig av parameteren.” Intel har også styrket “chip-to-chip-skalerbarheten” ved å multiplisere med fire båndbredden på hver kobling mellom kjerner.
Chippen kan skalere til tre dimensjoner, sa Davies, ved å bruke mellombrikke lenker.
Brikken har nå nesten 150 forskningsgrupper rundt om i verden som bruker Loihi, sa Davies.
Påstanden til nevromorfe databehandlere er at tilnærmingen nærmere etterligner de faktiske egenskapene til hjernens funksjon, for eksempel den store økonomien som hjernen overfører signaler med.
Faget for dyp læring, som tar en annen tilnærming til AI, har kritisert nevromorfiske tilnærminger for å ikke ha oppnådd noen praktiske resultater, i motsetning til dype læringssystemer som ResNet som kan plukke ut bilder i bilder. Facebooks sjef for AI, Yann LeCun, avviste i 2019 den nevromorfiske tilnærmingen på en konferanse der han og Davies begge snakket.
Et fotografi av masken av databehandlere i Loihi 2.
Intel
I et papir publisert tidligere i år i IEEE Spectrum, brakte Davies og kolleger bevis for det de sier er påviselige fordeler med nevromorfiske brikker på en rekke problemer. Som de sier det i avisen, får neuromorfe chips fordeler når det er elementer i et problem som rekursjon, som de knytter til måten hjernen behandler:
Mens konvensjonelle feedforward dype nevrale nettverk viser beskjedne om noen fordeler på Loihi, utfører flere hjerneinspirerte nettverk som bruker tilbakefall, nøyaktige piggetidsforhold, synaptisk plastisitet, stokastisitet og sparsomhet visse beregninger med størrelsesordener lavere latens og energi sammenlignet med state-of-the-art konvensjonelle tilnærminger. Disse overbevisende nevromorfe nettverkene løser et mangfold av problemer som er representative for hjernelignende beregninger, for eksempel hendelsesbase
“Vi har en portefølje av resultater som for første gang virkelig kvantitativt bekrefter løftet om nevromorf maskinvare for å gi betydelige gevinster i energieffektivitet, i forsinkelse av behandling og dataeffektivitet for visse læringsalgoritmer,” sa Davies til ZDNet.
“Det har vært en av de virkelig hyggelige overraskelsene å finne ut at nevromorfiske chips er fantastiske for å løse optimaliseringsproblemer,” sa Davies. “Det er ikke så overraskende fordi hjernen alltid optimaliserer,” sa han.
I dype læringsformer for maskinlæring er prosessen med å forutsi, gjøre slutninger en strengt “feed-forward-prosess”, sa Davies. Derimot, sa Davies, “hjernen er en mye mer kompleks prosess enn det, den tar alltid i betraktning tilbakemeldinger, det er forståelse av kontekst og forventning, inn i dens slutning.”
Intels Loihi -team beskriver referanseresultater mot konvensjonelle metoder for dyp læring. Loihi-oppføringene er de tre nettverkene som er oppført som “SLAYER”, som står for “Spike Layer Error Reassignment”, et verktøy utviklet i 2018 av forskere ved National University of Singapore for å la neuromorfe pigger trenes med ryggutbredelse.
IntelSom et resultat, “Hjernen utfører faktisk optimalisering,” sa han. “Siden vi har tatt ut noen av disse mulighetene i et standard matematisk rammeverk, har vi funnet ut at vi kan løse problemer som QUBO, kvadratisk ubegrenset primæroptimalisering,” en klasse problemer som ble utført i kvantemaskiner.
“Vi har funnet ut at vi faktisk kan løse QUBO -problemer fantastisk godt,” sa han.
En tidlig bruker av Loihi 2, US Department of Energy's Los Alamos National Laboratory, forholder seg til å ha kunnet etablere forbindelser på tvers av flere domener med brikken. For eksempel, Loihi som avdekker kryssstrømmer innen maskinlæring og kvanteberegning, ifølge Los Alamos-forsker Dr. Gerd J. Kunde:
Etterforskere ved Los Alamos National Laboratory har brukt Loihi neuromorfe plattform for å undersøke avveiningene mellom kvante- og nevromorfisk databehandling, samt implementere læringsprosesser på brikken. Denne forskningen har vist noen spennende ekvivalenser mellom pigge nevrale nettverk og kvanteglødemetoder for å løse harde optimaliseringsproblemer. Vi har også demonstrert at backpropagering -algoritmen, en grunnleggende byggestein for opplæring av nevrale nettverk og tidligere antatt ikke å kunne implementeres på nevromorfiske arkitekturer, kan realiseres effektivt på Loihi. Vårt team er glade for å fortsette denne forskningen med andre generasjon Loihi 2 -brikke.
I et kommende papir sendt til IEEE Spectrum beskriver Davies og team eksperimenter med Loihi 2 der de sammenlignet brikken på standard maskinlæringsoppgaver, for eksempel datasettet for Google Speech Commands, ved å trene en flerlags perceptronmodell, og sammenligne den med det beste dype nettverket i klassen, en modell bygget av Google-forskere og rapportert om i fjor.
Loihi-oppføringene brukte et verktøy som heter “SLAYER”, som står for “Spike Layer Error Reassignment”, et program introdusert i 2018 av Sumit Bam Shrestha og Garrick Orchardat ved National University of Singapore for å la neuromorfe pigger trenes med ryggutbredelse.
En modell, som baker i konvolusjoner, oppnådde en nøyaktighet på testen på 91,74%, som er bedre enn standard dypnett, men bruker langt færre parametere.
Relaterte emner:
Hardware Digital Transformation CXO Internet of Things Innovation Enterprise Software