AI chip unicorno che sta per rivoluzionare tutto ha computazionale Grafico all’interno del suo Nucleo

0
110

Zero

Se la fortuna è un’altra parola per essere al posto giusto al momento giusto, si potrebbe dire che siamo stati fortunati. Graphcore, il nome più caldo in AI chip, è sul nostro radar per un po ‘ ora, e una discussione con Graphcore fondatori fu pianificata ben prima notizia è scoppiata questa settimana.

Graphcore, come si può avere sentito parlare da ora, appena assicurato un altro $200 milioni di euro di finanziamenti da parte di BMW, Microsoft, e i principali investitori finanziari per offrire la più avanzata AI chip a scala. Nomi includono artisti del calibro di Atomico, Merian Crisalide, Investment Company Limited, Sofina, e Sequoia. Come Graphcore CEO e Fondatore di Nigel Toon condivisa, Graphcore dovuto abbassare gli investitori in questa fase, tra cui, in origine, l’iconica Sequoia fondo.

Inoltre: AI di Avvio del Girfalco giri pletora di chip per l’apprendimento automatico

Graphcore è ora ufficialmente un unicorno, con una stima di $1,7 miliardi di euro. Graphcore partner come Dell, il più grande del mondo server del produttore, Bosch, il più grande fornitore mondiale di elettronica per l’industria automobilistica, e Samsung, il più grande al mondo di elettronica di consumo della società, hanno accesso al chip già. Quindi, ecco la tua occasione per prepararsi e capire la rivoluzione che si sta per vedere dispiegarsi nel non troppo lontano futuro.

Imparare come funziona il cervello è una cosa, la modellazione chips dopo è un altro

Graphcore è basato in Bristol, regno UNITO, ed è stata fondata da industria dei semiconduttori veterani Nigel Toon, amministratore delegato, Simon Knowles, CTO. Toon e Knowles sono stati precedentemente coinvolti in aziende come Altera, Element14, e Icer che è uscito per un valore complessivo di miliardi di persone. Toon è positivo possibile, interrompere l’industria dei semiconduttori, più che mai, questa volta, rompere ciò che egli vede come il quasi-monopolio di Nvidia.

Nvidia è il giocatore dominante in AI carichi di lavoro, con la sua GPU chip, ed è in continua evoluzione. Ci sono più giocatori nel dominio, ma Toon crede è solo Nvidia che ha una chiara, coerente ed efficace il prodotto nel mercato. Ci sono anche giocatori come Google, con il suo TPU investire in AI chip, ma Toon crediti Graphcore ha il bordo e una fantastica opportunità per costruire un impero con il suo IPU (Intelligent Processor Unit) chip. Egli cita il successo del BRACCIO mobile di processori contro gli operatori storici del tempo come un esempio.

Anche: Intel dice che ha venduto più di $1B in AI chip nel 2017

Per capire la sua fiducia, e che degli investitori e dei partner, abbiamo bisogno di capire che cosa esattamente Graphcore fa e che è diverso dalla concorrenza. Macchina di apprendimento e AI sono le più rapido sviluppo e le tecnologie dirompenti. Apprendimento automatico, che è al centro di ciò che è chiamato AI questi giorni, è effettivamente molto efficace modello di corrispondenza, basato su una combinazione di algoritmi appropriati (modelli) e dati (training set).

Alcune persone andare all’estremo di chiamata AI, essenzialmente, la moltiplicazione di matrici. Mentre un tale riduzionismo è discutibile, resta il fatto che molto di machine learning è di circa efficiente di dati operazioni su larga scala. Questo è il motivo per cui le Gpu sono così bravo a macchina di apprendimento dei carichi di lavoro. La loro architettura, originariamente sviluppato per il rendering della grafica, si è dimostrato molto efficace per le operazioni di dati.

graphcore-wordmark-brain-scan-1920x1080.jpg

Graphcore rivoluziona hardware e software, con i Grafici

Cosa Graphcore ha fatto, tuttavia, è quello di investire in una nuova architettura del tutto. Questo è il motivo per cui Toon crede di avere una marcia in più di altre opzioni, che egli vede come aggiunta ad hoc, miglioramenti incrementali. Toon note che ciò che la concorrenza non è efficacemente alla costruzione specializzati chip (Asic), che sono molto bravi a qualche specifica operazione matematica su dati, ottimizzato per uno specifico carico di lavoro. Questo, egli sostiene, non domani carichi di lavoro.

Inoltre: AI Startup Cornami svela i dettagli della rete neurale chip

Così, che cosa è così speciale circa Graphcore di architettura? Ci sono state alcune speculazioni che Graphcore è la costruzione di quello che viene chiamato un neuromorfi AI chip: Un processore costruito dopo che un modello del cervello umano, con i suoi neuroni e sinapsi rispecchia nella sua architettura. Knowles, tuttavia, sfata questo equivoco:

“Il cervello è un grande esempio per computer architetti in questo nuovo e coraggioso sforzo di intelligenza artificiale. Ma i punti di forza e di debolezza di silicio sono molto diversi da quelli di wetware. Non abbiamo copiato la natura del modello di macchine volanti, né per la superficie di locomozione, né per i motori, perché la nostra ingegneria dei materiali sono diversi. Così, anche, con il calcolo.

Per esempio, la maggior parte neuromorfi progetti di calcolo avvocato di comunicazione elettrica picchi, come il cervello. Ma un’analisi di base per l’efficienza energetica, immediatamente si conclude una elettrica spike (due bordi) è la metà di efficienti per la trasmissione di informazioni, come un bordo singolo, quindi seguendo il cervello non è automaticamente una buona idea. Penso computer architetti dovrebbe sempre cercare di imparare il cervello calcola, ma non bisogna sforzarsi letteralmente a copiarlo in silicio.”

Rompere la Legge di Moore, Superando le Gpu

L’efficienza energetica è infatti un fattore limitante per neuromorfi architetture, ma non solo ci si applica. Toon, quando gli viene chiesto di commentare i limiti della Legge di Moore, noto che siamo andati ben al di là di quello che qualcuno pensava fosse possibile, e abbiamo ancora un altro 10 a 20 anni di corso. Ma, ha poi aggiunto, abbiamo raggiunto alcuni limiti fondamentali.

Toon pensa che abbiamo raggiunto il voltaggio minimo che possiamo utilizzare su quei chip. Così, siamo in grado di aggiungere più transistor, ma non siamo in grado di farli andare molto più veloce: “il Vostro computer portatile funziona ancora a 2Ghz, è appena più processori. Ma ora abbiamo bisogno di migliaia di nuclei di lavorare con la macchina di apprendimento. Abbiamo bisogno di un diverso processo architettonico, per la progettazione di chip in diversi modi. I vecchi modi di fare non funziona.”

Inoltre: AI chip per i big data e l’apprendimento automatico: Gpu, Fpga

Toon detto IPUs sono un general purpose macchina di intelligenza processore, progettato specificatamente per l’intelligenza delle macchine. “Uno dei vantaggi della nostra architettura è che è adatto per un sacco di di oggi approcci di apprendimento automatico come CNNs, ma è anche altamente ottimizzato per i diversi approcci di apprendimento automatico come il rafforzamento dell’apprendimento e approcci per il futuro,” ha detto. “L’IPU architettura ci permette di superare le Gpu — combina parallelismo massiccio, con oltre 1000 indipendente processore core per IPU e on-chip di memoria in modo che l’intero modello può essere tenuto su chip”.

Ma come fa l’IPU confrontare Nvidia Gpu in pratica? Recentemente, alcuni di apprendimento automatico e di parametri di riferimento sono stati rilasciati, in cui Nvidia è stato indicato per superare la concorrenza. Quando ha chiesto il suo pensiero su questo, Toon detto che sono a conoscenza di loro, ma si sono concentrati sull’ottimizzazione del cliente-specifiche applicazioni e carichi di lavoro di adesso.

In precedenza ha affermato, tuttavia, che le strutture di dati per la macchina di apprendimento sono diversi, come sono ad alta precisione dimensionale e di modelli complessi. Questo, ha detto, significa che si tratta di dati in modo diverso. Toon notato che le Gpu sono molto potenti, ma non necessariamente efficiente nel loro modo di gestire queste strutture di dati: “Abbiamo l’opportunità di creare qualcosa di 10, 100 volte più veloce per queste strutture di dati”.

pentagram-map-branding-graphcore-design-dezeen-2364-col-11.jpg

Graphcore intelligente processing unit (IPU), è di fatto un sistema di marmette modulari che possono essere assemblati in vari modi

Velocità, tuttavia, non è tutto ciò che serve per avere successo in questo gioco. Nvidia, per esempio, non ha successo solo perché la sua Gpu sono potenti. Una grande parte del suo successo, e un elemento di differenziazione della GPU concorrenti come AMD, è a livello software. Le librerie che hanno permesso agli sviluppatori di astrazione hardware specifiche e concentrarsi sull’ottimizzazione dei loro algoritmi di machine learning, dei parametri e dei processi sono stati una parte fondamentale della Nvidia successo.

Inoltre: AI startup Flex Logix bagarini di gran lunga maggiore di prestazioni rispetto a Nvidia

Nvidia continua evoluzione di queste librerie, con le ultime RAPIDS biblioteca promettente a 50 volte l’accelerazione della GPU di analisi dei dati e la macchina di apprendimento rispetto alle Cpu. Da dove viene Graphcore stand in confronto? Toon riconosciuto che il software è estremamente importante, continuando ad aggiungere che, accanto ad un edificio più complesso di silicio del processore, Graphcore ha anche costruito il primo software catena progettato specificamente per l’intelligenza artificiale, chiamato Pioppo.

Secondo Toon:

“Quando Graphcore iniziato non c’era TensorFlow o PyTorch, ma era chiaro che in ordine alla destinazione di questo mondo emergente dei modelli di conoscenza che abbiamo dovuto ripensare il tradizionale microprocessore stack di software. Il mondo si è spostato da sviluppatori di definire tutto in termini di vettori e scalari di uno dei grafici e tensori.

In questo nuovo mondo, tradizionale strumento di catene non hanno le capacità necessarie per fornire un facile e piattaforma aperta per gli sviluppatori. I modelli e le applicazioni del Calcolo 2.0 sono massicciamente parallelo e contare su milioni di identico calcoli per essere eseguito allo stesso tempo.

Questi carichi di lavoro impongono per la massima efficienza i modelli devono rimanere residente e deve consentire che i dati di flusso attraverso di loro. Architetture esistenti che si basano su streaming sia il codice dell’applicazione e dei dati con il processore per l’attuazione di questi modelli sono il più indicato per questo scopo, sia in hardware costruire e le metodologie utilizzate nello strumento catene che li supportano.”

Software 2.0, Calcola 2.0, e Computazionale Grafici

Graphcore parla Calcolare 2.0, altri parlano di Software 2.0. Questi due sono fortemente correlati, come il nuovo paradigma per lo sviluppo di applicazioni. Quando si parla di Calcolo 2.0, Toon notato che per 70 anni ci hanno raccontato computer cosa fare passo per passo in un programma, che è la familiarità processo algoritmico. Ora, ha detto, dobbiamo imparare dai dati.

Piuttosto che la programmazione della macchina, la macchina impara — pertanto, il machine learning. Questo sta cambiando radicalmente lo sviluppo e il comportamento delle applicazioni. I processi per la creazione di software deve essere adattato, e il software può visualizzare non deterministico, o almeno, non spiegabile comportamento. Questa sembra essere la strada del futuro, tuttavia, e Toon precisato che, con una quantità sufficiente di dati e di calcolo, siamo in grado di costruire modelli che superano gli esseri umani in attività di riconoscimento di pattern.

Inoltre: AI insaziabile appetito per il silicio richiede nuovi chip

“Quando si parla di Pioppo essere progettato per la macchina di intelligenza, che cosa significa, quali sono le caratteristiche che un tale strumento catena richiede. Si deve innanzitutto utilizzare il grafico di come la sua chiave di costruire. Il grafico rappresenta la conoscenza ed il modello di domanda, che è costruito con lo strumento di catena. Il pioppo è costruito intorno a un calcolo grafico astrazione, la rappresentazione intermedia (IR) del suo grafico compilatore è un grande grafo orientato,” Toon detto.

Graphcore, come gli altri, è l’uso di grafici come fondamentale metafora su cui il suo approccio al software e calcolo per la macchina di intelligenza è costruito. Toon notato che il grafico di immagini condivise da Graphore sono la rappresentazione interna del loro grafico compilatore. Una rappresentazione di tutta la conoscenza del modello suddivisi per esporre l’enorme parallelo carichi di lavoro, che Graphcore orari e esegue attraverso l’IPU processore.

L’IPU processore e Pioppo sono stati progettati insieme, e Toon detto questo la filosofia di progettazione di circuiti architettura e ambiente di programmazione software sviluppato in questo modo riflette la cultura e l’ambiente di Graphcore:

“L’ingegneria noi è aperto e collaborativo come costruiamo la nostra tecnologia. Pioppo supporta le decisioni di progettazione che abbiamo fatto nella nostra chip, la costruzione e la gestione altamente ottimizzato macchina di intelligenza modelli altamente ottimizzato BSP (bulk sincrono parallelo) modello di esecuzione.

È costruito per sostenere i concetti di separazione di calcolo e di comunicazione per l’efficienza energetica e anche per l’interfaccia con host piattaforme per rimuovere i colli di bottiglia che affliggono le piattaforme esistenti che vengono arricchite con il supporto per la macchina di apprendimento, piuttosto che essere progettato per esso.

Con il sostegno e consentendo agli utenti di accedere al nostro ad alte prestazioni IPU piattaforma, il Pioppo strumento catena deve essere di facile uso per gli sviluppatori. È per integrarsi perfettamente con il backend di machine learning framework come PyTorch e Tensorflow e fornire un runtime per la rete di formati di interscambio come ONNX sia per l’inferenza e la formazione dei carichi di lavoro.”

Pioppo supporta TensorFlow, PyTorch, ONNX e Keras ora, e il roll-out supporto per altre lingue, quadri, nel corso del 2019 e nuovi quadri di apparire. Toon ha detto che, utilizzando il Pioppo come back-end di questi quadri, gli utenti possono accedere ai benefici di avere il loro apprendimento automatico di modelli passato attraverso un’ottimizzazione del compilatore grafico per tutti i carichi di lavoro richiesti, piuttosto che il semplice pattern matching che viene utilizzato in eredità piattaforme software.

Inoltre: Chip di avvio Efinix spera di bootstrap AI sforzi nell’IoT

“Non è solo l’esecuzione di modelli e costrutti di oggi, innovatori, i ricercatori hanno bisogno di una piattaforma per sviluppare ed esplorare le soluzioni di domani con un facile da usare la piattaforma programmabile,” ha detto. “Il campo dell’intelligenza artificiale è di essere trattenuto da librerie di software per piattaforme hardware, che non sono aperta ed estensibile, fornendo una scatola nera per gli sviluppatori che vogliono innovare ed evolvere le idee.”

La rivoluzione è pronta per la spedizione, graph-based e open source

Se siete come noi, si potrebbe chiedere che cosa quei grafici sono come al di là della loro notevole di immagini. Che tipo di strutture, modelli e il formalismo non Graphcore utilizzare per rappresentare e lavorare con i grafici? Dovrebbero andare fino a li chiamiamo conoscenza grafici?

“Li chiamiamo semplicemente computazionale grafici. Tutti i modelli di apprendimento sono espressi al meglio, come grafici — questo è come TensorFlow dei lavori. E ‘solo che i nostri grafici sono ordini di grandezza più complesso perché ci sono ordini di grandezza parallelismo per i grafici in modo da sfruttare sul nostro chip”, ha detto Toon.

Ma se davvero sono curioso, c’è una buona notizia — devi solo aspettare un po ‘ di più. Toon promesso che nel corso del tempo Graphcore fornirà IPU e sviluppatori open-source per l’accesso al suo grafico ottimizzato librerie, in modo da poter vedere come Graphcore costruisce applicazioni. Noi attendiamo con ansia che, aggiunta a Graphcore attuali e futuri piani di pista.

Anche: Soddisfare Jetson Xavier: Nvidia AI chip

Graphcore è già in distribuzione la produzione di hardware per l’accesso anticipato ai clienti. Toon detto Graphcore vende schede PCIe, che sono pronti a slot in piattaforme server, chiamato C2 IPU-Processore schede. Essi contengono due IPU processori ciascuno. Egli ha anche notato che stanno lavorando con Dell in qualità di partner di canale per consegnare Dell piattaforme server per i clienti enterprise e cloud clienti.

Secondo Toon, prodotti saranno più ampiamente disponibile il prossimo anno. Il focus iniziale è su data center, cloud, e un numero selezionato di bordo applicazioni che richiedono pesanti calcolare — come autonomo, posti auto. Graphcore non è attualmente il targeting dei consumatori bordo di dispositivi come i telefoni cellulari.

Graphcore realizzare le sue promesse saranno niente di meno che una rivoluzione, sia sull’hardware e il software di livello.

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Nvidia AI punti ricerca di un’evoluzione del chip business
Huawei svela AI Ascend chip
Onda Computing vicino a svelare il suo primo sistema di IA
Nvidia favoloso falsi decomprimere la scatola nera di AI Qualcomm scommesse di $100 metri sul nuovo AI fondi di venture capital CNETIBM potenzia AI chip di velocità, portando apprendimento profondo TechRepublic

Argomenti Correlati:

Hardware

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0