I ricercatori dell'International Center for Neuromorphic Systems (ICNS) della Western Sydney University (WSU) hanno collaborato con Intel per creare un sistema informatico neuromorfo scalabile, open source e configurabile proof-of-concept, in modo che possano saperne di più su come il cervello funziona e come costruire una migliore IA.
Il calcolo neuromorfico mira a utilizzare l'informatica per sviluppare hardware AI più flessibile e in grado di emulare le funzioni del cervello umano, compresa l'interpretazione contestuale, le applicazioni sensoriali e l'adattamento autonomo.
Vedi: Che cos'è il calcolo neuromorfico? Tutto quello che devi sapere su come sta cambiando il futuro dell'informatica
“Non sappiamo davvero come il cervello prenda i segnali dai sensori del nostro corpo e li elabori, e dia un senso al mondo che lo circonda. Uno dei motivi è che non possiamo simulare il cervello sui normali computer – è anche così lento, anche simulare come un millimetro cubo del cervello richiede settimane per simulare solo per pochi secondi, e questo impedisce in parte la comprensione di come funziona il cervello”, ha detto a ZDNet il direttore dell'ICNS André van Schaik.
“Pertanto, abbiamo bisogno di costruire una macchina che possa emulare il cervello piuttosto che simulare con la differenza che è più un'implementazione hardware in cui queste cose funzionano più velocemente e in parallelo.”
Ha aggiunto che essere in grado di comprendere il cervello è solo una di quelle “ultime frontiere della scienza”.
“Non puoi semplicemente studiare il cervello umano negli umani al giusto livello di dettaglio e scala … o fare un EEG in cui ricevi onde cerebrali ma non ottieni alcuna risoluzione di ciò che i singoli neuroni stanno facendo nel cervello di qualcuno, ma con questo sistema puoi fallo. Speriamo di poter scoprire come funzionano i cervelli e poi si ridimensionano, ma anche come falliscono “, ha detto van Schaik.
Allo stesso tempo, van Schaik ritiene che la soluzione potrebbe migliorare il modo in cui vengono costruiti i sistemi di intelligenza artificiale, descrivendo gli attuali metodi utilizzati per addestrare i modelli di intelligenza artificiale come “metodi di forza molto bruta”.
“Stanno davvero solo imparando da molti esempi… [ma] l'apprendimento del cervello funziona in modo molto diverso da ciò che chiamiamo intelligenza artificiale al momento. non sono in grado di simularlo sui computer attuali su qualsiasi scala”, ha affermato.
Secondo van Schaik, il team prevede che la configurazione del proof of concept assomiglierebbe molto ai data center attuali. Consisterebbe di tre rack di elaborazione in un ambiente fresco, incorporerebbe array di porte programmabili sul campo (FPGA) abilitati per l'acceleratore di protocollo di rete configurabile Intel (COPA) e sarebbe collegato da un tessuto di rete HPC (High Performance Computing). Il sistema verrebbe quindi alimentato con informazioni, come la neuroscienza computazionale, la neuroanatomia e la neurofisiologia.
Il sistema verrebbe fuori dal lavoro che la Neuromorphic Research Community (INRC) di Intel ha svolto con il suo calcolo neuromorfologico Loihi processi.
Van Schaik ha affermato che mentre il chip Loihi è molto efficiente dal punto di vista energetico, è anche meno flessibile in quanto è un chip progettato su misura e quindi non configurabile, rispetto all'utilizzo di FPGA che possono essere configurati e riconfigurati tramite software.
“Vogliamo offrire questo sistema più flessibile e più assetato di potere come percorso separato per quella comunità”, ha affermato.
“Attualmente siamo in grado di simulare reti molto più grandi di quanto possano fare su quella piattaforma.”
C'è anche un aspetto della sostenibilità nella ricerca, con van Schaik che spiega che il sistema da costruire sarebbe in grado di elaborare più dati, con meno energia. La potenza termica prevista del sistema è di 38,8 kW a pieno carico.
“[In] l'avvento dell'intelligenza artificiale, dell'apprendimento automatico e dei dispositivi intelligenti … stiamo raccogliendo così tanti dati … quando quei dati vanno nel cloud, consumano elettricità … e siamo effettivamente su una traiettoria … [dove] i dati consumano tanta elettricità quanto qualsiasi altra cosa nel mondo”, ha detto.
“Se osserviamo i data center al momento che elaborano i dati… consumano enormi quantità di elettricità. La crusca umana è di circa 25 watt… speriamo che costruendo l'intelligenza artificiale e l'elaborazione dei dati più simili al cervello, possiamo farlo con molta meno energia. ”
Copertura correlata
Intel Labs cerca il prossimo atto del gigante dei chip nei progressi quantistici e neuromorficiOra Google sta usando l'intelligenza artificiale per progettare chip, molto più velocemente di quanto gli ingegneri umani possano fare il lavoroIBM mostra che i computer quantistici possono risolvere questi problemi che i computer classici trovano difficileEtica dell'intelligenza artificiale: vantaggi e rischi dell'intelligenza artificiale
Argomenti correlati:
Australia CXO Digital Transformation Tech Industry Smart Cities Cloud