Google dice che una crescita esponenziale di AI è cambiare la natura di calcolare

0
113

Zero

img0223.jpg

L’esplosione di intelligenza artificiale, machine learning sta cambiando la natura stessa dell’informatica, così dice uno dei più grandi professionisti di AI, di Google.

Google software engineer Cliff Giovane ha dato il discorso di apertura, giovedì mattina, presso la Linley Group Autunno Processore Conferenza, un computer popolare-chip simposio messo su dal venerabile semiconduttori società di analisi di The Linley Group, a Santa Clara, in California.

Ha detto il Giovane, l’uso di AI ha raggiunto una “fase esponenziale” allo stesso tempo che la Legge di Moore, il vecchio di decenni regola empirica circa semiconduttori progresso, è a terra una battuta d’arresto.

“I tempi sono leggermente nevrotico”, ha riflettuto. “Digital CMOS sta rallentando, vediamo che in Intel guai in 10 nanometri [la produzione di chip, noi vediamo in GlobalFoundries uscire di 7 nanometri, allo stesso tempo che c’è questa profonda di apprendimento, cosa che accade, non c’è domanda economica.” CMOS, o complementary metal-oxide semiconductor, è il materiale più comune per i chip di computer.

Anche: Google prepara TPU 3.0 per AI, apprendimento automatico, modello di formazione

Come convenzionale chip lotta per ottenere migliori prestazioni e una maggiore efficienza energetica, la domanda da AI ricercatori è in aumento, noto Giovane. Ha snocciolato alcune statistiche: Il numero di pubblicazioni accademiche su macchina di apprendimento elencati su arXiv pre-print server gestito dalla Cornell University, per raddoppiano ogni 18 mesi. E il numero di interno di progetti AI Google, ha detto, è anche un raddoppio ogni 18 mesi. Ancora più intenso, il numero di operazioni aritmetiche in virgola mobile le operazioni necessarie per effettuare la macchina di apprendimento delle reti neurali è di raddoppiare ogni tre mesi e mezzo.

Tutti che la crescita di calcolo richiesta è di aggiungere fino a un “Super la Legge di Moore,” ha detto il Giovane, un fenomeno che ha chiamato “un po’ terrificante, e” un po ‘pericoloso” e “qualcosa di cui preoccuparsi.”

“Perché tutta questa crescita esponenziale?” in AI, ha chiesto. “In parte, a causa profonda di apprendimento funziona,” ha detto. “Per un lungo periodo di tempo, ho trascorso la mia carriera ignorando macchina di apprendimento,” ha detto il Giovane. “Non era chiaro le cose stavano andando a prendere il largo.”

Ma poi scoperte in cose come il riconoscimento di immagini hanno cominciato a venire in fretta, e divenne chiaro deep learning è “incredibilmente efficace,” ha detto. “Abbiamo avuto un AI-prima azienda per la maggior parte degli ultimi cinque anni”, ha detto, “abbiamo ricostruito la maggior parte delle nostre imprese, dalla ricerca, alla pubblicità e molti di più.

img0221.jpg

La richiesta da parte di Google Brain team che guida la ricerca sull’intelligenza artificiale è per “macchine gigantesche”, ha detto il Giovane. Per esempio, le reti neurali sono, a volte, misurato dal numero di “pesi” che occupano, le variabili che vengono applicate per la rete neurale di forma la sua manipolazione dei dati.

Mentre le reti neurali possono avere centinaia di migliaia di tali pesi che deve essere calcolato, o addirittura milioni, di Google, gli scienziati stanno dicendo “vi preghiamo di darci una tera-peso della macchina,” computer”, in grado di elaborazione di un trilione di pesi. Perché “ogni volta che si raddoppia la dimensione del [neurale] rete, si ottiene un miglioramento nella precisione.” Più grande e più grande è la regola in AI.

Per rispondere, naturalmente, Google ha sviluppato una propria linea di machine learning chip, il “Tensore di Unità di Elaborazione.” Il TPU, e pezzi come questo, siano necessarie poiché i tradizionali Cpu e chip grafici (Gpu) non può tenere il passo.

“Per molto tempo, abbiamo tenuto indietro e ha detto Intel e Nvidia sono veramente grandi, alla costruzione di sistemi ad alte prestazioni,” ha detto il Giovane. “Abbiamo attraversato la soglia di cinque anni fa.”

Il TPU causato una commozione quando è stato inaugurato nel 2017, che vanta prestazioni superiori alle tradizionali chip. Google è ora alla sua terza iterazione di TPU, utilizzati internamente e offre anche una domanda nodo di calcolo attraverso Google Cloud.

Anche: Google annuncia Bordo in TPU, Cloud IoT Edge software

L’azienda continua a fare sempre di più istanze di TPU. Il suo “contenitore” di configurazione lega insieme di 1.024 singoli TPUs in un nuovo tipo di supercomputer, e Google intende “continuare scala” il sistema, ha detto Young.

“Stiamo costruendo queste gigantesche multi-computer, con decine di petabyte di computing”, ha detto. “Stiamo spingendo inesorabilmente in un certo numero di indicazioni di progresso, la tera-ops, sempre salendo.”

Ad ingegneria “porta tutti i problemi che si presentano nel supercomputer design,” ha detto.

Per esempio, i tecnici di Google hanno adottato i trucchi usati dal leggendario supercomputing vestito Cray. Hanno combinato un “gigantesco moltiplicazione di matrici unità,” la parte del chip che fa il peso di un lavoro di rete neurale computing, con un “general purpose vector unit” e un “general-purpose scalare unità”, come il Cray. “La combinazione di scaler vettoriali e unità di far Cray superare tutto il resto”, ha osservato.

Google ha sviluppato il suo romanzo aritmetica costruzioni per programmare il chip. Qualcosa chiamato “bfloat16” è un modo per rappresentare i numeri reali che fornisce una maggiore efficienza nel numero scricchiolio delle reti neurali. È comunemente indicato come il “cervello float”.

Il TPU disegna il più veloce chip di memoria, i cosiddetti ad alta larghezza di banda di memoria, o HBM. C’è un impennata bisogno di capacità di memoria nella formazione di reti neurali, ha detto.

img0222.jpg

“La memoria è il modo più intensivo in allenamento”, ha detto. “La gente parla di centinaia di milioni di pesi, ma è anche un problema di gestione, l’attivazione di” variabili di una rete neurale.

E Google è anche la regolazione come i programmi di reti neurali per rendere la maggior parte di hardware. “Stiamo lavorando molto sui dati e modello di parallelismo,” con progetti come “Maglia TensorFlow”, un adattamento della società TensorFlow quadro di programmazione che “combina i dati e modello di parallelismo pod-scala”.

C’erano alcuni dettagli tecnici Giovani evitato di rivelare. Egli ha osservato che l’azienda non ha parlato molto della “interconnessione” il modo in cui i dati vengono spostati in tutto il chip, salva per dire “abbiamo gigantesco connettori.” Ha rifiutato di offrire più informazioni, suscitando le risate del pubblico.

Giovane punta ancora più intrigante regni di calcolo che potrebbe non essere lontano. Per esempio, ha suggerito di calcolo tramite chip analogici, circuiti di processo ingressi come valori continui, piuttosto che come uno e zero, potrebbe giocare un ruolo importante. “Forse ci sarà campione dal dominio analogico, ci sono alcune cose davvero interessanti in fisica, con l’analogico computing, o non volatile della tecnologia.”

Ha tenuto la speranza per una nuova tecnologia chip startup come quelle che si trovano al convegno: “Ci sono alcuni super-cool start-up, e abbiamo bisogno di quel lavoro, perché digitale CMOS è solo andando a prendere noi finora; io voglio che questi investimenti.”

Precedente e relativa copertura:

Presto AI adottanti report restituisce grande

Nuovo studio mostra la tecnologia di intelligenza artificiale sta pagando, ma che le aziende devono affrontare sfide.

Oracle, che introduce un nuovo enterprise digital assistant

Andando oltre la normale chatbots costruito per un unico scopo, Oracle Assistente Digitale possono essere addestrati a sostegno di dominio di abilità da più applicazioni

AI offrendo rendimenti per le imprese early adopters, ma non industrie creati uguali

Deloitte annuale AI indagine rivela un po ‘ di realismo, la sicurezza informatica preoccupazioni e del 17% il rendimento medio dell’investimento.

Di Machine learning per ora il top di abilità cercato dagli sviluppatori

SlashData ultima indagine di 20.000 sviluppatori identifica machine learning e data science è la capacità di sapere per il 2019.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è la trasformazione digitale? Tutto quello che devi sapere

La trasformazione digitale: cos’è, perché è importante e quali siano le grandi tendenze.

AI e Internet delle Cose, continuerà a guidare la trasformazione digitale fino al 2020

Ricerca studio rivela IoT, AI sincrono e contabilità tech (blockchain) priorità.

Storie correlate:

Non c’è un ruolo per IA o i dati della scienza: questo è un lavoro di squadra di Avvio del Parentado porta scheggia di speranza per l’intelligenza artificiale robotica AI: La vista dal Capo Scienza di Dati Ufficio Salesforce intro Einstein Voce, una IA assistente vocale per le imprese non i posti di lavoro AI è distruggere che mi da fastidio, è che quelli che stanno crescendo Come Facebook scale AI Google Duplex mi preoccupa di CNET Come la Home page di Google è meglio di Amazon Echo CNET trasformazione Digitale: Una guida per CXOs (Tech Pro Ricerca) Che le imprese si concentrerà su per la trasformazione digitale nel 2018 trasformazione Digitale: Tre modi per ottenere il vostro business

Argomenti Correlati:

Centri Dati

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0