L’marzo specializzati chip per l’intelligenza artificiale non accenna a diminuire, e segnalazioni da alcuni luminari del settore dei semiconduttori punto di un ampliamento di un movimento di macchina di apprendimento parti.
Il ben-considerato chip-newsletter di informazione sul settore Microprocessore Report di questa settimana riporta che il cloud computing operatori come Amazon e alcuni di elettronica di giganti come Huawei mostra risultati impressionanti contro la Cpu e le unità di elaborazione grafica o GPU, le parti che tendono a dominare l’IA in cloud. (Microprocessore Rapporto di articoli sono disponibili solo tramite abbonamento alla newsletter.)
E un pezzo di questo mese, Communications of the ACM, da due leggende di progettazione di chip, John L. Hennessy e David A. Patterson, spiega che i circuiti della macchina di apprendimento rappresentano qualcosa di una rivoluzione nella progettazione di chip in generale. Hennessy e Patterson lo scorso anno ha ricevuto il prestigioso A. M. Turing award dall’ACM per la loro decenni di lavoro sul chip di progettazione dell’architettura.
Anche: Google dice che una crescita esponenziale di AI è cambiare la natura di calcolare
Il Microprocessore redazione di Report, della newsletter, principal analyst, Linley Gwennap, descrive l’ascesa di personalizzati circuiti integrati per applicazioni specifiche per il cloud con la frase “quando piove, diluvia.” Tra la fretta di chip sono di Amazon “Gravitone” chip, che è ora disponibile in Amazon AWS cloud service. Un altro è il “Kunpeng 920” dal Cinese telecom e networking gigante Huawei. Huawei intende utilizzare i chip sia la sua linea di computer server e come offerta nel proprio servizio di cloud computing.

Un diagramma a blocchi di Google “TPU” processore per l’apprendimento automatico.
Google.
Amazon e Huawei ha intenzione di seguire con più parti: un “deep-apprendimento acceleratore” da Amazon, chiamato “Inferentia” e una parte per la rete neurale di inferenza, la parte di AI in cui il chip risposte domande al volo, chiamato “Salire 310.” Un altro, il “Salire 910,” è un “massiccio datacenter chip”, come Gwennap descrive.
Nel caso di Amazon e Huawei, le questioni, è il blocco di inferenza da Intel Xeon, e il blocco su cloud-based training di Nvidia Gpu.
Anche: Intel IA capo vede opportunità per ‘massiccia’ la conquista di quote di
“Il Cloud service provider sono preoccupati per Intel, quasi il 100% della quota di processori per server e Nvidia posizione dominante AI acceleratori”, scrive Gwennap. “ASICs offrire una copertura contro gli aumenti dei prezzi o di un prodotto inciampare dal fornitore.”
Mentre ASICs non facilmente incontrare Intel Xeon prestazioni, “La forte performance del Ascend 910 mostra Nvidia è più vulnerabile”, egli scrive.
Il saggio di Patterson Hennessy e prende un po ‘ di più vista. Il problema per il chip industria, scrivono, è la composizione della Legge di Moore, la famosa legge del transistor di scala, nonché la ripartizione di Dennard di Scala, che dice che i chip di ottenere generalmente più efficienti. Allo stesso tempo, Bilanciamento di Legge, una regola empirica che dice che il collo di bottiglia nelle prestazioni dei processori è il numero sequenziale, piuttosto che in parallelo, le operazioni che devono essere calcolati, è in pieno effetto. Tutto questo significa che i chip sono qualcosa di crisi, ma che presenta anche delle opportunità.
Anche: Nvidia AI punti ricerca di un’evoluzione del chip business
Fondamentalmente, progettazione di chip deve allontanarsi dalla general-purpose parti, di specializzazione, sostengono. La morte della Legge di Moore e Dennard Scala “è altamente improbabile che, a nostro avviso, il processore architetti e designer in grado di sostenere tassi significativi di miglioramento delle prestazioni in generale-scopo processori.”
Invece, vedono un continuo muoversi di “dominio-specifiche architetture”, di cui AI chip sono un esempio eclatante. Il DSA chip può fare uso di un sacco di trucchi che non lavoro per general-purpose processor, come un compilatore approccio per il codice chiamato “very-long instruction word” o VLIW.
“I processori VLIW non sono una corrispondenza per general-purpose code15 ma limitato per i domini possono essere molto più efficiente, dal momento che i meccanismi di controllo sono più semplici,” scrivono.
Non solo Dsa servire AI bene, ma gli autori prevedono che può essere migliore di general-purpose processori a protezione del codice, evitando le recenti chip di attacchi di tipo Spettro e Tracollo.
Deve leggere
‘IA è molto, molto stupido”, dice Google AI leader (CNET)Baidu crea Kunlun di silicio per AIUnified Google IA divisione di un chiaro segnale di AI del futuro (TechRepublic)
Ricordate che Patterson è stato un giocatore chiave nella progettazione di Google Tensore Unità di Elaborazione, o TPU, chip, un primo esempio di un AI-centric DSA. Gli autori coprire i dettagli di TPU nell’articolo.
A parte il TPU, e le Gpu Nvidia e Intel propria field-programmable gate array, e altre offerte di i giganti della tecnologia, ci sono “decine” di imprese startup che sono “comunicanti centinaia di migliaia di chip per formare reti neurali supercomputer,” Patterson Hennessy e osservare.
Vedono più e più progetti provenienti da startup dato che è relativamente poco costoso da progettare e fabbricare il più specifici Dsa, rispetto ad un general-purpose. Fanno un passo per il “RISC-V” standard per il chip di istruzioni. RISC-V permette a molte aziende di chip per modificare una serie di istruzioni per sintonizzare le parti per un dato dominio. Hennessy e Patterson scrivere che la nuova era del chip design è simile a quello di sviluppo agile del software, con un sacco di iterazioni che ottenere nuovi chip fuori la porta veloce e quindi migliorare.
Il duo di vedere un futuro luminoso per l’innovazione. “Questa valanga di [profonde rete neurale] architetture fa per tempi interessanti in architettura del computer.
“È difficile prevedere nel 2019 (anche se qualsiasi), molti di questi, le indicazioni di vincere, ma il mercato sarà sicuramente risolvere la concorrenza come si stabilì architettonico dibattiti del passato”.
Precedente e relativa copertura:
Che cosa è l’IA? Tutto quello che devi sapere
Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.
Cos’è il deep learning? Tutto quello che devi sapere
Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.
Che cosa è macchina di apprendimento? Tutto quello che devi sapere
Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.
Che cos’è il cloud computing? Tutto quello che devi sapere su
Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.
Argomenti Correlati:
Sviluppatore
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software