Forskere fra International Center for Neuromorphic Systems (ICNS) ved Western Sydney University (WSU) er gået sammen med Intel om at bygge et skalerbart, open-source og konfigurerbart neuromorft computersystem proof-of-concept, så de kan lære mere om, hvordan hjernen fungerer, og hvordan man bygger bedre AI.
Neuromorf computing sigter mod at bruge datalogi til at udvikle AI -hardware, der er mere fleksibel og kan efterligne den menneskelige hjernes funktioner, herunder kontekstuel fortolkning, sensoriske applikationer og autonom tilpasning.
Se: Hvad er neuromorf computing? Alt hvad du behøver at vide om, hvordan det ændrer fremtiden for computing
“Vi ved ikke rigtigt, hvordan hjerner tager signaler fra vores kropssensorer og behandler det og giver mening om verden omkring det. En af årsagerne til det er, at vi ikke kan simulere hjerner på almindelige computere – det er bare alt for meget langsom, selv at simulere som en kubik millimeter af hjernen tager uger at simulere i bare et par sekunder – og det stopper en del af forståelsen af, hvordan hjerner fungerer, ”sagde ICNS -direktør André van Schaik til ZDNet.
“Derfor er vi nødt til at bygge en maskine, der kan efterligne hjernen frem for at simulere med forskellen, det er mere en hardwareimplementering, hvor disse ting kører hurtigere og parallelt.”
Han tilføjede, at for at kunne forstå hjernen er bare en af de “sidste grænser i videnskaben”.
“Du kan ikke bare studere den menneskelige hjerne hos mennesker på det rigtige detaljerings- og skalaniveau … eller lave et EEG, hvor du får hjernebølger, men ikke få en løsning på, hvad de enkelte neuroner gør i nogens hjerne, men med dette system kan du Forhåbentlig kan vi finde ud af, hvordan hjerner fungerer og derefter skalere, men også hvordan de fejler, “sagde van Schaik.
På samme tid mener van Schaik, at løsningen kan forbedre den måde, AI -systemer er bygget på, og beskrive de nuværende metoder, der bruges til at træne AI -modeller som “meget brute force -metoder”.
“De lærer virkelig bare af masser af eksempler … [men] at lære om hjerner fungerer meget anderledes end det, vi kalder AI i øjeblikket. Igen ved vi ikke, hvordan det fungerer, og igen holder vi os tilbage, at vi ikke er i stand til at simulere dette på nuværende computere i nogen skala, “sagde han.
Ifølge van Schaik forestiller teamet sig, at proof-of-concept-opsætningen ville ligne nuværende datacentre. Det ville bestå af tre computerstativer i et køligt miljø, inkorporere Intel-konfigurerbare netværksprotokolaccelerator (COPA) -aktiverede feltprogrammerbare gate-arrays (FPGA'er) og blive forbundet med et højtydende computing (HPC) netværksstof. Systemet vil derefter blive fodret med information, såsom beregningsneurovidenskab, neuroanatomi og neurofysiologi.
Systemet ville komme bag på arbejdet Intels Neuromorphic Research Community (INRC) har gjort med sin Loihi neuromorfe computing behandle.
Van Schaik sagde, at mens Loihi-chippen er meget strømeffektiv, er den også mindre fleksibel, da den er en specialdesignet chip og derfor ikke kan konfigureres i forhold til at bruge FPGA'er, der kan konfigureres og omkonfigureres ved hjælp af software.
“Vi ønsker at tilbyde dette mere fleksible system og mere energisultede system som en separat vej for dette fællesskab,” sagde han.
“Vi er i øjeblikket i stand til at simulere meget større netværk, end de kan på den platform.”
Der er også et bæredygtighedsaspekt ved forskningen, og van Schaik forklarer, at det system, der skal bygges, vil kunne behandle flere data med mindre strøm. Systemets forventede termiske designeffekt er 38,8 kW ved fuld belastning.
“[I] fremkomsten af AI og maskinlæring og smarte enheder … vi indsamler så mange data … når disse data går til skyen, forbruger det elektricitet … og vi er faktisk på en bane … [Hvor] data forbruger lige så meget elektricitet som alt andet i verden, ”sagde han.
“Hvis vi ser på datacentre i øjeblikket, der behandler data … de forbruger enorme mængder elektricitet. Det menneskelige klid er omkring 25 watt … vi håber ved at bygge AI og dataprocesser mere som hjerner, vi kan gøre det med meget mindre strøm. ”
Relateret dækning
Intel Labs søger efter chipgigants næste handling i kvante, neuromorfe fremskridt Nu bruger Google AI til at designe chips, langt hurtigere end menneskelige ingeniører kan gøre jobbet IBM viser, at kvantecomputere kan løse disse problemer at klassiske computere finder hardEthics of AI: Fordele og risici ved kunstig intelligens
Relaterede emner:
Australien CXO Digital Transformation Tech Industry Smart Cities Cloud