AI di avvio Flex Logix bagarini di gran lunga maggiore di prestazioni rispetto a Nvidia

0
113

Zero

Ventotto anni fa, Geoff Tate ha contribuito a creare un chip società denominata Rambus. La sua tecnologia è in ogni memoria DRAM parte che le navi di oggi. Ma Tate pensa che ora ha trovato un mercato più grande di intelligenza artificiale, machine learning.

“Penso che le reti neurali sta per essere un mercato più grande di quello che abbiamo fatto con Rambus,” ha detto Tate, chief executive di avvio Flex Logix, in un’intervista a ZDNet a margine della Linley Group Autunno Processore Conferenza, ospitata dal venerabile semiconduttori società di analisi di The Linley Group, a Santa Clara nella Silicon Valley.

“La rete neurale chip stanno per esplodere, sia in volume di trucioli e complessità,” Tate ha detto. “Se si dovesse fare un’analogia ai giorni di [Intel] x86, siamo solo nella fase di 286 adesso.”

Flex, fondata quattro anni fa e sostenuto dal rischio delle imprese Lux Capitale e Eclipse Ventures, sta andando dopo il mercato noto come “deduzione a bordo.” L’inferenza è la parte della macchina di apprendimento quando la rete neurale usa quello che ha imparato durante la fase di formazione per fornire risposte a problemi nuovi.

Inoltre: AI Startup Cornami svela i dettagli della rete neurale chip

Il “bordo”, in questo caso, si riferisce a dispositivi al di fuori del data center, come l’auto-guida di automobili o IoT gadget. Quindi, la deduzione al limite potrebbe coinvolgere le reti neurali per cose come l’assistenza per l’auto, vedi la strada o aiutare una videocamera collegata ad identificare la gente in mezzo alla folla.

flex-logix-nmax-array-nov-2018.png

Flex Logix unisce gruppi di mutliplier-accumulatore circuiti in banchi di RAM, con uno speciale circuito per collegare tutto insieme chiamato “XFLX.” L’azienda sostiene che questo accordo delle parti di mantenere il processore occupato più tempo con i dati necessari, contribuendo notevolmente a superare Nvidia Gpu all’inferenza di machine learning.

La società ha presentato a mostrare la sua “ZIONE” della tecnologia. Questo si basa su ciò che è noto come un “eFPGA,” una sorta di chip programmabile. La combina ZIONE di tonnellate di identici elementi di calcolo, chiamato moltiplicatore di accumulatori, che svolgono la matrice moltiplicazioni che il compito fondamentale delle reti neurali. Il moltiplicatore-accumulatori costituiscono un “sistolica array,” un vecchio computer design vivendo una rinascita come molti produttori di chip utilizzare per AI. (Vedi il report la scorsa settimana su un chip di start-up Cornami.)

Questi gruppi di moltiplicatore di accumulatori sono circondato da una memoria ram da circuiti, e di interconnessione ad alta velocità chiamato “XFLX” che collega il moltiplicatore di accumulatori per l’uno all’altro e SRAM. SRAM contiene i “pesi” i valori numerici che forma la rete neurale.

Tate sottolinea il XFLX di interconnessione la chiave per le prestazioni dei chip. Per essere in grado di spostare in modo efficiente dei dati da e verso la ram per il cluster di moltiplicatore di accumulatori, l’intero chip può essere più efficiente. Il moltiplicatore-accumulatori sono tenuti occupati da avere sempre i dati di cui hanno bisogno, e il chip può ridurre o addirittura evitare del tutto, il costoso processo di andare off-chip DRAM. “Il taglio di DRAM significa taglio dei costi e di potere” Tate ha detto. Un particolare compilatore programma è stato sviluppato da Flex, che ottimizza il flusso di dati in tutto il chip.

Tate, e il suo co-fondatore Cheng Wang, responsabile di ingegneria, ha preso di mira Nvidia unità di elaborazione grafica o Gpu, attualmente la forma dominante di calcolo. Essi sostengono che la Gpu, mentre meglio di Cpu, sono gravemente inefficiente per l’elaborazione di reti neurali.

“La maggior parte del tempo di una scheda Nvidia per MAC [moltiplicatore-accumulatore] sta facendo niente, quindi non ha bisogno di quattro volte tanto hardware” per ottenere gli stessi risultati, Tate ha detto.

Anche: Google dice che una crescita esponenziale di AI è cambiare la natura di calcolare

Wang ha affermato nella sua formale presentazione alla mostra che il NMAX chip ha dieci volte il rapporto prezzo/prestazioni, Nvidia “Tesla T4” GPU. Il XFLX di interconnessione, e la natura riconfigurabile di FPGA circuiti, significa che il NMAX è inattivo meno del tempo, e quindi ha una maggiore “di utilizzo.” La maggior parte AI chip aziende, ha detto Wang, hanno varie affermazioni circa la “tera-di operazioni al secondo,” o CIME, possono eseguire, promettendo di ottenere di più e di più.

Ma Wang ha detto la maggior parte dei clienti sono più interessati con la velocità effettiva e la latenza si possono raggiungere. L’utilizzo maggiore dovrebbe produrre di più in termini di velocità effettiva qualunque sia il raw CIME di conteggio.

Il parametro “ResNet-50” rete neurale per il riconoscimento di immagini, Wang ha detto che il NMAX in grado di raggiungere una “efficienza” del suo moltiplicatore di accumulatori di 87 per cento, rispetto a meno del 25 per cento per la Tesla T4 e altri tipi di chip.

flex-logix-nvidia-comparison-nov-2018.png

Flex Logix vanta di una migliore efficienza nelle sue fiches sul test di benchmark che coinvolgono determinati macchina di apprendimento delle reti neurali come “ResNet-50.”

“Nei nostri incontri con i clienti, si sono già confrontati tutto questo, e conoscono i problemi reali rispetto prestazione promessa,” Tate ha detto. “Abbiamo parlato per un’azienda che ha detto che il problema non era come molti TOP si può fare, si è parlato di come molti si può fare con un watt” di potenza. Questo perché i dispositivi edge potrebbe essere limitata dalla durata della batteria, a differenza dei server seduta in un centro dati.

“Non abbiamo visto nulla di eguagliare la nostra capacità di” Tate ha detto. “E in realtà ResNet-50 è anche un po’ fuorviante, perché nel mondo reale, invece di presentazioni accademiche, le reti neurali sono andando essere molto più grande di ResNet-50, e queste reti sarà davvero imposte hardware.”

NMAX saranno venduti a clienti come ciò che è chiamato un “IP core” di un circuito di design che possono integrare nelle proprie chips. Le parti sono tenuti a “tape out”, cioè, a disposizione di clienti, nella seconda metà del prossimo anno.

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Non c’è un ruolo per IA o i dati della scienza: questo è un lavoro di squadra di Avvio del Parentado porta scheggia di speranza per l’intelligenza artificiale robotica AI: La vista dal Capo Scienza di Dati Ufficio Salesforce intro Einstein Voce, una IA assistente vocale per le imprese non i posti di lavoro AI è distruggere che mi da fastidio, è che quelli che stanno crescendo Come Facebook scale AI

Argomenti Correlati:

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0