AI di Avvio Cornami svela i dettagli della rete neurale chip

0
140

Zero

Il mondo tecnologico è inondato in avvio di imprese lo sviluppo di chip per l’intelligenza artificiale, machine learning. Alcuni dei più intriganti ha mostrato questa settimana al Linley Group Autunno Processore Conferenza, ospitata dal venerabile semiconduttori società di analisi di The Linley Group, a Santa Clara, in California.

ZDNet è andato alla mostra per ottenere il lowdown su alcune di queste operazioni stealth.

Giovedì mattina, caratterizzato da una presentazione da parte di una società di avvio chiamato Cornami, con sede a Santa Clara.

Co-fondatrice e direttore tecnico, Paolo Maestri, ha descritto un nuovo modo di organizzare gli elementi di un chip per fare entrambe le machine learning “formazione” – dove la rete neurale è sviluppato, come pure di “inferenza”, dove la rete neurale si esegue su una base costante di fornire risposte.

Cornami è stato operativo in modalità stealth, e questa era la prima volta Maestri tirato aprire il sipario su alcuni dettagli di come l’azienda chip di lavoro.

Anche: Google annuncia Bordo in TPU, Cloud IoT Edge software

Cornami mira a fornire i propri chip per numerosi mercati, tra cui in edge “informatica”, dove le automobili e l’elettronica di consumo hanno un particolare bisogno di chip che sono molto sensibili prestazioni e a basso consumo energetico nel modo in cui l’esecuzione di reti neurali.

Il chip, detto Master, risale alla tecnologia degli anni 1970 e 1980, chiamato “sistolica” array. Una pressione sistolica array ha una pletora di elementi informatici, come un moltiplicatore di accumulatore, per eseguire la matrice moltiplicazioni che sono la fondamentale unità di calcolo di reti neurali. Fili collegare tali elementi l’uno all’altro, e alla memoria, in una griglia. Sistolica matrici sono così chiamati per la pressione sistolica funzionamento del cuore: come il flusso di sangue, i dati vengono “pompati”, attraverso tali elementi computazionali.

Sistolica matrici mai decollata quando sono emersi per la prima volta, ma sono in forma dominante modi per strutturare un AI chip, basato su presentazioni di questa settimana. “Hai visto, è fantastico, è da anni ’70”, ha detto Maestri di sistolica matrici.

“Google e Microsoft, e un’infinità di start-up,” ha osservato la diffusione dei valori di pressione sistolica e matrici.

Ma Masters discusso di come Cornami ha un approccio unico per valori di pressione sistolica e matrici. “La maledizione di sistolica array è che sono quadrati,” ha Padroni. Si riferiva a quella simmetrica di moltiplicatore di accumulatori. Becauser di un rigido disposizione, spostando i dati dentro e fuori di tali elementi di calcolo richiede un’enorme quantità di chip sforzo — sforzo in più, infatti, di calcolare stesso all’interno di ogni calcolare elemento.

“Da dove viene l’energia di andare in legacy silicio?” è la grande domanda, ha detto Maestri. “I dati vengono scaricati in DDR [memoria DRAM], e deve andare a un core per il calcolo, in modo che i dati va da DDR a Level 3 di cache, la cache di Livello 2 e il Livello 1 di cache, e quindi nel registro, e quindi nel calcolo. Quindi io se corro fuori di core, devo fare il contrario, devo tornare indietro e il dump di tutti che i dati temporanei indietro nel registro, cache L1, L2, L3, e più e più volte.”

Anche: Google prepara TPU 3.0 per AI, apprendimento automatico, modello di formazione

Solo per “toccare” la cache L1, ha spiegato Maestri, dura quattro volte l’energia di un calcolo effettivo. “E il cielo ti aiuti se si tocca DRAM”, ha detto, a guidare la potenza necessaria ancora di più per andare via il chip.

image.jpg

Cornami sostiene il suo chip per la macchina di apprendimento sarà di gran lunga più potente ed efficiente, mediante l’organizzazione di calcolare gli elementi non-piazza matrici. Qui un esempio di una matrice disposti in una non-forma quadrata per eseguire un intero strato di SegNet rete neurale.

Cornami Inc.

“La maggior parte dell’energia inefficiente cosa in eredità macchine è lo spostamento di dati,” ha detto Maestri. La soluzione, con migliaia di anime. Mantenendo migliaia di core occupato, si può evitare di andare indietro per il sottosistema di memoria e invece semplicemente il percorso di ingressi e uscite di calcolare da un elemento al successivo. “Se hai abbastanza anime, di 8.000 o 16.000, o 32.000 core, siamo in grado di mantenere la totalità della rete neurale a morire”, ha detto.

E così, per evitare che il costo di andare in e fuori la memoria, il Cornami chip di organizzare i loro circuiti, che il calcolo di elementi può essere commutato per una varietà di motivi geometrici accordi di organizzare in modo efficace l’attività di elaborazione su un chip in un modo che cambia con le esigenze della rete neurale al momento.

“Cornami costruito un’architettura in cui la pressione sistolica array possono essere costruiti in qualsiasi dimensione, in qualsiasi forma, su richiesta”. Come far scorrere sopra mostra, la pressione sistolica array può essere dinamicamente ri-arrangiati e strane nuove geometrie che non sono quadrati. Quelle strane forme di matrici di rendere efficiente per spostare gli ingressi e le uscite tra il calcolo di elementi. E come risultato, il Cornami chip può ridurre al minimo la memoria e la cache di riferimenti, e quindi di “migliorare notevolmente la potenza, la latenza e prestazioni.”

Anche: Intel-backed avvio Paperspace reinventa dev strumenti per un’intelligenza artificiale, era del cloud

Maestri vantava che con tale flessibilità, in un unico Cornami chip in grado di elaborare un’intera rete neurale, e sarà in grado di sostituire le varie combinazioni di Cpu, Gpu, Fpga e Asic in genere utilizzato per l’esecuzione di reti neurali. Si tratta di un “data center on a chip”, ha detto, con grandi implicazioni per mettere AI “margini computing”, come le automobili.

Masters ha mostrato alcune statistiche per le prestazioni: esecuzione di “SegNet” rete neurale per il riconoscimento di immagini, il Cornami chip è in grado di elaborare 877 fotogrammi al secondo in una rete neurale utilizzando solo 30 watt, rispetto a una Nvidia Titan V” GPU, che elabora solo 8.6 fotogrammi al secondo a 250 watt.

Cornami ricevuto Serie B venture finanziamento di 3 milioni di dollari nel settembre del 2016 da Impatto di Venture Capital. La società ha ricevuto ulteriori finanziamenti, ma ha rifiutato di rivelare quanto.

Precedente e relativa copertura:

Presto AI adottanti report restituisce grande

Nuovo studio mostra la tecnologia di intelligenza artificiale sta pagando, ma che le aziende devono affrontare sfide.

Oracle, che introduce un nuovo enterprise digital assistant

Andando oltre la normale chatbots costruito per un unico scopo, Oracle Assistente Digitale possono essere addestrati a sostegno di dominio di abilità da più applicazioni

AI offrendo rendimenti per le imprese early adopters, ma non industrie creati uguali

Deloitte annuale AI indagine rivela un po ‘ di realismo, la sicurezza informatica preoccupazioni e del 17% il rendimento medio dell’investimento.

Di Machine learning per ora il top di abilità cercato dagli sviluppatori

SlashData ultima indagine di 20.000 sviluppatori identifica machine learning e data science è la capacità di sapere per il 2019.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è la trasformazione digitale? Tutto quello che devi sapere

La trasformazione digitale: cos’è, perché è importante e quali siano le grandi tendenze.

AI e Internet delle Cose, continuerà a guidare la trasformazione digitale fino al 2020

Ricerca studio rivela IoT, AI sincrono e contabilità tech (blockchain) priorità.

Storie correlate:

Non c’è un ruolo per IA o scienza di dati: questa è una squadra effortStartup Affini porta scheggia di speranza per l’IA in roboticsAI: La vista dal Capo Scienza di Dati OfficeSalesforce intro Einstein Voce, una IA assistente vocale per enterprisesIt non i posti di lavoro AI è distruggere che mi da fastidio, è quelli che sono growingHow Facebook scale AIGoogle Duplex mi preoccupa di CNETCome la Home page di Google è meglio di Amazon Echo CNETtrasformazione Digitale: Una guida per CXOs (Tech Pro Ricerca)Ciò che le imprese si concentrerà su per la trasformazione digitale in 2018Digital trasformazione: Tre modi per ottenere il vostro business

Argomenti Correlati:

zdnet_topic.correlati.bordo-computing

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0