Chip mondo che cerca di fare i conti con promesse e pericoli di AI

0
39

L’industria dei computer facce svolta epocale, come le richieste di “deep learning” forme di apprendimento automatico vigore i nuovi requisiti su silicio, allo stesso tempo, che la Legge di Moore, il vecchio di decenni stato di avanzamento nel chip business, è al collasso.

Questa settimana, alcune delle menti migliori del chip del settore riuniti a San Francisco per parlare di che cosa significa.

I Materiali applicati, dominante produttore di strumenti per la fabbricazione di transistor, ha promosso una giornata di conferenze e sessioni del pannello di martedì, denominato “A. I. Design Forum”, in collaborazione con uno dei chip del settore grande fiera annuale mostra, Semicon West.

Le presentazioni e le discussioni erano buone e cattive notizie. Sul lato positivo, molti strumenti sono a disposizione di aziende come Advanced Micro Devices e Xilinx per rendere “eterogenea” accordi di chip per soddisfare le esigenze di apprendimento profondo. Sul lato negativo, non è del tutto chiaro che cosa hanno nel loro kit borsa sarà attenuare un potenziale esaurimento dei centri dati, sotto il peso di un aumento di calcolo richiesta.

Nessun nuovo chip sono stati esposti presso il Vantaggio della mostra, questi tipi di unveilings da tempo superato per altre fiere e congressi. Ma la discussione presso l’A. I. forum ha dato un buon senso di come il chip industria sta pensando l’esplosione di machine learning e di che cosa significa per il computer.

2019-aidf-gary-dickerson.jpg

I Materiali applicati amministratore delegato Gary Dickerson.

SFFOTO / Materiali Applicati

Gary Dickerson, chief executive di Materiali Applicati, iniziato il suo discorso facendo notare il “drammatico rallentamento della Legge di Moore, citando i dati da UC Berkeley, Professore David Patterson e Alfabeto presidente John Hennessy, mostrando che i nuovi processori sono il miglioramento delle prestazioni (solo il 3,5% all’anno. (La figura è un po ‘ antiquato; un saggio e di Patterson Hennessy a febbraio fissò il rallentamento al 3% di miglioramento per l’anno).

Dickerson continuato a rivendicare l’A. I. carichi di lavoro dei data center in tutto il mondo potrebbe venire a rappresentare l ‘ 80% di tutti i cicli di elaborazione e il 10% dell’energia elettrica mondiale utilizzare nel prossimo decennio o giù di lì.

Ciò significa che l’industria ha bisogno di cercare molti itinerari di soluzioni, ha detto Dickerson, tra cui “nuove architetture” per la progettazione di chip e di nuovi tipi di chip di memoria. Ha citato diversi tipi di memoria, tra cui “MRAM,” “ReRAM,” (resistive RAM), “PCRAM,” (phase-change RAM), e “FeRAM.” L’industria dovrebbe anche esplorare analogico disegni di chip, chip di manipolare i dati in continuo, a valori reali segnali, piuttosto che in unità discrete, e di nuovi tipi di materiali di là di silicio.

Inoltre: AI sta cambiando l’intera natura del compute

Entrambi Advanced Micro Devices capo, Lisa Su, e di Xilinx amministratore delegato, Victor Peng, ha fatto un passo per i loro rispettivi ruoli nel rendere possibile eterogenei tipi di calcolo.

Su parlato l’azienda “Epyc,” server chip, che sta lavorando intorno alla Legge di Moore collo di bottiglia riunendo più di silicio dadi, chiamato “chiplets,” in un unico pacchetto, con una memoria ad alta velocità bus che collega la chiplets, per costruire una sorta di chip che è il suo proprio sistema di computer.

png-image.png

Un sacco di nuovi tipi di memoria sono fra le misure dell’industria avrà bisogno di concentrarsi su vedersela con il forte rialzo A. I. carichi di lavoro.

I Materiali Applicati

Peng ritriti osservazioni della società, Può investor day a New York, dicendo che Xilinx programmabile del chip, “Fpga,” in grado di gestire non solo la matrice moltiplicazione di A. I., ma anche le parti di software tradizionale di esecuzione che devono accadere prima e dopo l’apprendimento automatico delle operazioni.

Un anziano ingegnere Google, Cliff Giovane, è andato nei dettagli del Tensore di Unità di Elaborazione, o “TPU” chip che Google ha sviluppato a partire dal 2013. Lo sforzo è stato chiesto, ha detto, da una sorta di panico. La società visto che con più di machine learning per l’esecuzione dei servizi di Google, “matrix moltiplicazioni stavano diventando una notevole frazione della flotta cicli” in Google data center. “Che cosa succede se tutti parlano con i loro telefoni di due minuti al giorno, o vuole analizzare il video clip di due minuti un il giorno,” uso di machine learning, ha chiesto retoricamente. “Non abbiamo un numero sufficiente di computer.”

“C’è stato potenziale che, sia per il successo e il disastro”, ha detto la crescente domanda di A. I. servizi. “Abbiamo iniziato a 15 mesi di crash del progetto per il raggiungimento di un dieci-X miglioramento delle prestazioni.”

Nonostante ora alla terza iterazione di TPU, Giovani implicita la crisi non è finita. Calcolare la domanda è in aumento “cubicly,” ha detto, parlando della matrice di moltiplicazioni. Google ha tutto il magazzino di dimensioni palazzi pieni di “baccelli”, di contenitori che sono più rack pieno con TPUs. Ancora non sarà sufficiente. “Anche Google raggiungerà i limiti di scala data center.”

Preparatevi per un magazzino collo di bottiglia, in altre parole.

2019-aidf-cliff-young.jpg

Ingegnere Google Cliff Giovane

Kelsey Floyd

Young ha detto che ci saranno un sacco di collaborazione tra progettisti hardware e software programmatori, in quello che lui chiama “co-design”, ma anche di co-progettazione con materiali fisici, ha suggerito.

“Quando fai il co-design, è il lavoro interdisciplinare, e tu sei uno straniero in terra straniera”, ha osservato. “Dobbiamo uscire dalla nostra zona di comfort.”

“Si può usare ricetrasmettitori ottici di” manipolare le reti neurali, si chiese. Ottica computing è “impressionante alla moltiplicazione di matrici”, ha osservato, ma non è molto bravo a un’altra parte fondamentale di reti neurali, non lineare, funzioni di attivazione di ciascun neurone artificiale.

“Il Packaging è una cosa, che cosa possiamo fare con imballo e chiplets?”, ha chiesto. L’industria ha bisogno di alternative al CMOS, la base materiale del silicio del chip, ha detto, facendo eco a Dickerson. In-memory computing sarà anche importante, ha detto, dopo aver calcoli vicino a celle di memoria piuttosto che muoversi avanti e indietro, e dalla memoria al processore e indietro lungo un convenzionale del bus di memoria.

Giovane offerti che di machine learning potrebbe aprire nuove opportunità per l’analogico computing. “È strano che il digitale livello tra il reale numerati reti neurali sottostanti analog devices”, ha detto, il disegno di un collegamento tra le statistiche o di natura stocastica di entrambe A. I. e silicio. “Forse non abbiamo sempre bisogno di tornare in pezzi tutto il tempo,” ha affermato Giovani.

In considerazione di tutte le sfide”, è un super-cool il tempo di guida

Anche: Google dice che una crescita esponenziale di AI è cambiare la natura di calcolare

Argomenti Correlati:

Cloud

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software