
Loihi 2, uttalat “Low-EE-he”, skär i halva chipets storlek och multiplicerar åtta gånger antalet artificiella spikande neuroner. Här ses utsidan av chipet med dess kontakter för att ansluta till kretskortet.
Walden Kirsch/Intel
Intel presenterade på torsdagen den andra versionen av sitt Loihi neuromorfa chip, “Loihi 2”, en processor för artificiell intelligens som den hävdar mer lämpligt återspeglar de processer som sker i den mänskliga hjärnan jämfört med annan AI -teknik.
Det nya chipet krymper till hälften i en mer avancerad processnod, som nu mäter 31 kvadratmillimeter, men det innehåller en miljon artificiella spikneuroner, åtta gånger så många som föregångaren.
< p>Och chipet får ny flexibilitet genom att ha mer mer omfattande mikrokod som ligger till grund för driften av de spikande neuronerna.
Loihi, uttalad “low-EE-he”, är uppkallad efter ett hawaiianskt havsfäste, en ung vulkanen, “som kommer upp ur havet när som helst nu”, som Mike Davies, Intels chef för neuromorphic computing, uttrycker det.
Det nya chipet får också en ny utvecklingsram, kallad Lava, som är skriven i Java och släppt som öppen källkod. Utvecklare kan arbeta med program för Loihi utan att ha tillgång till hårdvaran. Programvaran är tillgänglig på Github.
Intel presenterade den första versionen av Loihi redan 2017 och beskrev den då som ett chip som skulle “hämta inspiration från hur neuroner kommunicerar och lär sig, med hjälp av spikar och plastsynapser som kan moduleras baserat på timing.”
< p> Chippet är utformat som ett “nät” av beräkningskärnor
Den första Loihi utformades med Intels 14-nanometer processteknik. Den nya versionen använder Intels Intel 4 -teknik, eftersom företaget har renoverat sina tillverkningsgenerationer. Det antas i grunden vara ett 7-nanometer-chip, även om Intel inte har avslöjat fullständiga detaljer om processtekniken. Tekniken är en förproduktionsversion av Intel 4, betonar företaget.
Chippet får en mer flexibel mikrokod som låter programmerare “tilldela variabler och utföra ett brett spektrum av instruktioner organiserade som korta program med hjälp av en monteringsspråk “, säger Intel.
Dessa program har tillgång till neuralt tillståndsminne, den ackumulerade synaptiska ingången ai för det aktuella tidssteget, slumpmässiga bitar för stokastiska modeller och en tidsstegsräknare för tidsberäknad beräkning. Instruktionsuppsättningen stöder villkorlig förgrening, bitvis logik och fastpunktsaritmetik som stöds av hårdvarumultiplikatorer.
“Det tillför mycket allmänhet, programmerbarhet, medan vi tidigare var begränsade av de fasta funktionsuppsättningarna i Loihi 1”, sa Intels Davies i en intervju med ZDNet per telefon.
Intel har förbättrat prestandan på många nivåer med chippet, sa han.
“Vi har arbetsbelastningar som går över tio gånger snabbare, och på kretsnivån är vi någonstans mellan två till sju gånger, beroende på parametern.” Intel har också ökat “chip-to-chip-skalbarhet” genom att multiplicera med fyra bandbredden på varje länk mellan kärnor.
Chippet kan skala till tre dimensioner, säger Davies, genom att använda interchip länkar.
Chippet har nu nästan 150 forskargrupper runt om i världen som använder Loihi, säger Davies.
Hävdandet av neuromorfa dataförespråkare är att tillvägagångssättet närmare efterliknar de faktiska egenskaperna hos hjärnans funktion, till exempel den stora ekonomi som hjärnan överför signaler med.
Fältet för djupinlärning, som tar ett annat förhållningssätt till AI, har kritiserat neuromorfa tillvägagångssätt för att inte ha uppnått några praktiska resultat, i motsats till djupa inlärningssystem som ResNet som kan plocka ut bilder i bilder. Facebooks chef för AI, Yann LeCun, avfärdade 2019 det neuromorfa tillvägagångssättet på en konferens där han och Davies båda talade.
Ett fotografi av nätverket av beräkningskärnor i Loihi 2.
Intel
I en tidning som publicerades tidigare i år i IEEE Spectrum kom Davies och kollegor med bevis för vad de säger är påvisbara fördelar med neuromorfa chips på olika problem. Som de uttrycker det i tidningen får neuromorfa chips fördelar när det finns element i ett problem som rekursion, som de länkar till hur hjärnan bearbetar:
Medan konventionella feedforward djupa neurala nätverk visar blygsamma om någon fördel på Loihi, utför mer hjärninspirerade nätverk med återkommande, exakta spik-timing-förhållanden, synaptisk plasticitet, stokasticitet och sparsamhet vissa beräkningar med storleksordningar lägre latens och energi jämfört med toppmoderna konventionella metoder. Dessa övertygande neuromorfa nätverk löser en mängd olika problem som är representativa för hjärnliknande beräkning, till exempel händelsebasen
“Vi har en portfölj av resultat som för första gången verkligen kvantitativt bekräftar löftet om neuromorfisk hårdvara att leverera betydande vinster i energieffektivitet, i latens för bearbetning och dataeffektivitet för vissa inlärningsalgoritmer”, sa Davies till ZDNet.
“Det har varit en av de riktigt trevliga överraskningarna att upptäcka att neuromorfa chips är fantastiska för att lösa optimeringsproblem”, säger Davies. “Det är inte så förvånande eftersom hjärnor alltid optimerar”, sa han.
I djupinlärningsformer av maskininlärning är processen med att göra förutsägelser, göra slutsatser en strikt “feed-forward-process”, säger Davies. Däremot, säger Davies, “hjärnan är en mycket mer komplex process än så, det är alltid att ta med feedback, det är förståelse för sammanhang och förväntningar, i dess slutsatser.”
Intels Loihi -team beskriver benchmarkresultat mot konventionella metoder för djupinlärning. Loihi-posterna är de tre nätverk som anges som “SLAYER”, som står för “Spike Layer Error Reassignment”, ett verktyg som utvecklats 2018 av forskare vid National University of Singapore för att låta neuromorfa spikar träna med ryggutbredning.
IntelSom ett resultat, “Hjärnan utför faktiskt optimering”, sa han. “Eftersom vi har abstraherat några av dessa kapaciteter i ett matematiskt standardramverk har vi funnit att vi kan lösa problem som QUBO, kvadratisk obegränsad primäroptimering”, en klass av problem som utförts i kvantdatorer.
“Vi har funnit att vi faktiskt kan lösa QUBO -problem fantastiskt bra”, sa han.
En tidig användare av Loihi 2, U.S. Department of Energy's Los Alamos National Laboratory, berättar att han har kunnat upprätta anslutningar mellan flera domäner med chipet. Till exempel Loihi hans avslöjande korsströmmar inom maskininlärning och kvantberäkning, enligt Los Alamos personalvetare Dr Gerd J. Kunde:
Utredare vid Los Alamos National Laboratory har använt Loihis neuromorfa plattform för att undersöka avvägningarna mellan kvant- och neuromorfisk datorer, samt implementera inlärningsprocesser on-chip. Denna forskning har visat några spännande ekvivalenser mellan pigga neurala nätverk och kvantglödgningssätt för att lösa hårda optimeringsproblem. Vi har också visat att backpropagationsalgoritmen, en grundläggande byggsten för utbildning av neurala nätverk och som tidigare tros inte kunna implementeras på neuromorfa arkitekturer, kan realiseras effektivt på Loihi. Vårt team är glada över att kunna fortsätta denna forskning med andra generationens Loihi 2 -chip.
I en kommande uppsats som skickades till IEEE Spectrum beskriver Davies och team experiment med Loihi 2 där de jämförde chipet på vanliga maskininlärningsuppgifter, till exempel datauppsättningen för Google Speech Commands, genom att träna en perceptormodell med flera lager och jämföra den med det djupaste nätverket i klassen, en modell som byggdes av Google-forskare och rapporterades om förra året.
Loihi-posterna använde ett verktyg som heter “SLAYER”, som står för “Spike Layer Error Reassignment”, ett program som introducerades 2018 av Sumit Bam Shrestha och Garrick Orchardat från National University of Singapore för att låta neuromorfa spikar träna med ryggutbredning.
En modell, som bakar i konvolutions, uppnådde en noggrannhet på testet på 91,74%, vilket är bättre än det vanliga djupa nätverket, men med mycket färre parametrar.
Relaterade ämnen:
Hardware Digital Transformation CXO Internet of Things Innovation Enterprise Software