Intel svela il Nervana Rete Neurale Processore

0
130

Zero

14131nervanachipboard101217angle2a.png

Intel Nervana bordo chip

Intel

Intel martedì sta prendendo le coperture via del Nervana Rete Neurale Processore (NNP), precedentemente conosciuto come “Lago di Cresta”, un chip di tre anni che è stato progettato espressamente per l’IA e il deep learning. Insieme con il che spiega la sua architettura unica, Intel ha annunciato che Facebook è stato uno stretto collaboratore, che si prepara a portare il Nervana NNP di mercato. Il chipmaker anche previsto l’inizio di una roadmap di prodotto.

Mentre ci sono disponibili piattaforme per l’apprendimento profondo delle applicazioni, questo è il primo del suo genere — costruito dalla terra in su per IA — che è disponibile in commercio, Naveen Rao, corporate VP di Intel Intelligenza Artificiale Prodotti del Gruppo, ha detto a ZDNet. È raro che Intel per la fornitura di una nuova classe di prodotti, ha detto, in modo che il Nervana NNP famiglia dimostra di Intel impegno per l’IA spazio.

AI sta rivoluzionando computing, trasformare un computer in un “data di inferenza macchina,” Rao ha detto. “Stiamo andando a guardare indietro di 10 anni e vedere che questo è stato il punto di svolta.”

Intel prevede di rilasciare il silicio per un paio di stretti collaboratori di quest’anno, tra cui Facebook. Intel collabora a stretto contatto con i grandi clienti come Facebook per determinare i diritti di funzionalità di cui hanno bisogno, Rao, ha spiegato. All’inizio del prossimo anno, i clienti saranno in grado di costruire soluzioni e distribuirli tramite il Nervana Cloud platform-as-a-service (PaaS) powered by Nervana tecnologia. In alternativa, si potrebbe usare la Nervana Apprendimento Profondo apparecchio, che è effettivamente il Nervana Cloud on-premise.

In un post sul blog, CEO di Intel, Brian Krzanich, ha detto il Nervana NNP consentirà alle aziende di “sviluppare interamente nuove classi di AI applicazioni che massimizzare la quantità di dati trattati e di consentire ai clienti di trovare maggiori approfondimenti–trasformare le loro aziende”.

Per esempio, società di social media come Facebook sarà in grado di offrire esperienze più personalizzate per gli utenti e più mirati raggiungere per gli inserzionisti, Krzanich ha osservato. Ha citato altri casi di utilizzo come primi strumenti di diagnostica nel settore sanitario, i miglioramenti delle previsioni meteo e le anticipazioni autonoma di guida.

Con più generazioni di Nervana NNP prodotti in pipeline, Intel dice che è sulla pista per soddisfare o addirittura superare le sue 2016 promessa di arrivare a 100 volte maggiore profondità di formazione prestazioni entro il 2020. Intel e piani di messa fuori Nervana prodotti a cadenza annuale o, eventualmente, più veloce.

“Questo è un nuovo spazio, e l’iterazione e l’evoluzione sono davvero importanti in questo spazio,” Rao ha detto.

Ci sono tre caratteristiche architettoniche uniche al Nervana NNP, che forniscono la flessibilità per il supporto di deep learning primitive, mentre facendo core componenti hardware più efficiente possibile.

Il primo è un diverso tipo di architettura di memoria che consente un migliore utilizzo delle risorse di calcolo su un chip. “In generale-scopo del processore, non sappiamo dove da dati provenienti da, che cosa abbiamo intenzione di fare con esso, dove stiamo andando, per lo scrive,” Rao, ha spiegato. “AI, si scopre sapete di fronte.”

Per questo motivo, il processore Intel Nervana NNP non hanno una gerarchia di cache. On-chip di memoria è gestita da un software direttamente. Questo, in definitiva, significa che il chip raggiunge più velocemente i tempi di formazione per l’apprendimento profondo modelli.

A quel punto, Rao ha detto, il Nervana NNP utilizza una nuova concezione di formato numerico, che Intel chiama Flexpoint, di raggiungere alti gradi di velocità. General-purpose chip in genere si basano su modelli costruiti su numeri continui a ridurre i dati “rumore”. Tuttavia, dal momento che le reti neurali sono più tolleranti dei dati di rumore, e può anche aiutare nel profondo di formazione — “siamo in grado di ottenere via con molti meno bit di rappresentanza per ogni calcolo,” Rao, ha spiegato.

Terzo, il processore Intel Nervana NNP è stato progettato con l’alta velocità on – e off-chip interconnessioni che consentono massiccio trasferimento di dati bidirezionale. Questo può effettivamente consentire a più chips di agire come una virtuale di grandi dimensioni chip, permettendo grandi reti neurali che possono formare più veloce.

Con l’aggiunta di Nervana NNP, Intel offre ora chips per un intero spettro di AI casi d’uso, Rao ha detto. Esso integra il processore Intel altri prodotti utilizzati per IA applicazioni, tra cui Xeon Scalabile processori e Chip.

“Consideriamo questo come un approccio di portafoglio, e siamo in una posizione unica per prendere tale approccio,” ha detto. “Si può davvero trovare la soluzione migliore per i nostri clienti, non solo un one-size-fits-all tipo di modello.”

Per esempio, se un nuovo cliente erano all’inizio della loro “AI journey”, Rao ha detto, “abbiamo gli strumenti per farli in fretta su una CPU, che probabilmente già avete.” Come il loro bisogno di crescere, “abbiamo un percorso di crescita per loro”, ha continuato, chiamando il Nervana NNP “ultimate soluzione ad alte prestazioni” per l’apprendimento profondo.

Precedente e relativa copertura

AI bisogni di formazione di una nuova architettura del chip: Intel

Piuttosto che striscia in basso di una delle sue architetture esistenti per fare un chip ottimizzato per AI, Intel è andato fuori e ha comprato uno.

Intel annuncia di auto-apprendimento AI chip Loihi

Intel ha detto il suo nuovo AI test chip combina la formazione e l’inferenza, significato autonomo macchine in grado di adattarsi ad apprendere dalla loro ambiente in tempo reale, invece di aspettare per gli aggiornamenti dal cloud.

Intel ha investito più di $1 miliardo in AI aziende

Il CEO di Intel Brian Krzanich scritto un op-ed di lunedì che bagarini della società AI loro investimenti.

0