Forskare från International Center for Neuromorphic Systems (ICNS) vid Western Sydney University (WSU) har gått ihop med Intel för att bygga ett skalbart, öppet källkod och konfigurerbart neuromorft datorsystem proof-of-concept, så att de kan lära sig mer om hur hjärnan fungerar och hur man bygger bättre AI.
Neuromorf databehandling syftar till att använda datavetenskap för att utveckla AI -hårdvara som är mer flexibel och kan efterlikna den mänskliga hjärnans funktioner, inklusive kontextuell tolkning, sensoriska applikationer och autonom anpassning.
Se: Vad är neuromorf beräkning? Allt du behöver veta om hur det förändrar datorns framtid
“Vi vet inte riktigt hur hjärnor tar signaler från våra kroppssensorer och bearbetar det, och förstår världen runt den. En av anledningarna till det är att vi inte kan simulera hjärnor på vanliga datorer – det är bara för långsam, till och med simulera som en kubik millimeter av hjärnan tar veckor att simulera i bara några sekunder – och det hindrar en del av förståelsen för hur hjärnor fungerar, säger ICNS -chef André van Schaik till ZDNet.
“Därför måste vi bygga en maskin som kan emulera hjärnan snarare än att simulera med skillnaden, det är mer en hårdvaruimplementering där dessa saker går snabbare och parallellt.”
Han tillade att för att kunna förstå hjärnan är bara en av de “sista gränserna inom vetenskapen”.
“Du kan inte bara studera den mänskliga hjärnan hos människor på rätt detaljnivå och skala … eller göra ett EEG där du får hjärnvågor men inte få någon upplösning på vad de enskilda neuronerna gör i någons hjärna, men med det här systemet kan du gör det. Förhoppningsvis kan vi ta reda på hur hjärnor fungerar och sedan skala, men också hur de misslyckas, säger van Schaik.
Samtidigt tror van Schaik att lösningen kan förbättra hur AI -system byggs och beskriver nuvarande metoder som används för att träna AI -modeller som “mycket brute force -metoder”.
“De lär sig egentligen bara av många exempel … [men] att lära sig om hjärnor fungerar väldigt annorlunda än vad vi kallar AI för tillfället. Återigen vet vi inte riktigt hur det fungerar och igen, att hålla oss tillbaka är att vi kan inte simulera detta på nuvarande datorer i någon skala, säger han.
Enligt van Schaik föreställer sig teamet att proof-of-concept-inställningen skulle se ut som nuvarande datacenter. Den skulle bestå av tre beräkningshyllor i en sval miljö, innehålla Intel-konfigurerbara nätverksprotokollacceleratorer (COPA) -aktiverade fältprogrammerbara grindmatriser (FPGA) och anslutas med en högpresterande datorkonstruktion (HPC) nätverk. Systemet skulle då matas med information, till exempel beräknad neurovetenskap, neuroanatomi och neurofysiologi.
Systemet kommer att komma från arbetsplatsen Intels Neuromorphic Research Community (INRC) har gjort med sin Loihi neuromorfa beräkning bearbeta.
Van Schaik sa att medan Loihi-chipet är mycket energieffektivt, är det också mindre flexibelt eftersom det är ett specialdesignat chip och därför inte konfigurerbart, jämfört med att använda FPGA: er som kan konfigureras och omkonfigureras med programvara.
“Vi vill erbjuda detta mer flexibla system och mer energikrävande system som en separat väg för det samhället”, sa han.
“Vi kan för närvarande simulera mycket större nätverk än de kan på den plattformen.”
Det finns också en hållbarhetsaspekt i forskningen, med van Schaik som förklarar att systemet som ska byggas skulle kunna behandla mer data, med mindre kraft. Systemets beräknade termiska designeffekt är 38,8 kW vid full belastning.
“[I] tillkomsten av AI och maskininlärning och smarta enheter … vi samlar in så mycket data … när den data går till molnet, förbrukar den elektricitet … och vi är faktiskt på en bana … [där] data förbrukar lika mycket el som allt annat i världen, “sa han.
“Om vi tittar på datacenter för närvarande som behandlar data … de förbrukar enorma mängder el. Den mänskliga klian är cirka 25 watt … vi hoppas genom att bygga AI och dataprocess mer som hjärnor, vi kan göra det med mycket mindre effekt. ”
Relaterad täckning
Intel Labs söker efter chipjättens nästa akt i kvant, neuromorfa framsteg Nu använder Google AI för att designa chips, mycket snabbare än mänskliga ingenjörer kan göra jobbet IBM visar att kvantdatorer kan lösa dessa problem att klassiska datorer hittar hardEthics of AI: Fördelar och risker med artificiell intelligens
Relaterade ämnen:
Australien CXO Digital Transformation Tech Industry Smart Cities Cloud