Facebook è Yann LeCun dice ‘interno di attivita’ proventi AI chip

0
99

In un’intervista a ZDNet presso l’International Solid State Circuits Conference a San Francisco, Yann LeCun, testa di Facebook AI team di Ricerca, ha detto che la società ha il suo lavoro su chip per l’apprendimento automatico in corso, anche se lui sembrava speranzoso e fiducioso che molte soluzioni provengono dal chip del settore.

“Certo, ha senso per le aziende come Google e Facebook che hanno un elevato volume di lavorare in proprio i motori, se l’industria non fornire”, ha detto LeCun, con riferimento alla necessità di nuovi tipi di tecnologia di elaborazione ottimizzato per l’apprendimento profondo.

“Ciò che Facebook ha fatto tradizionalmente è quello di collaborare con i fornitori di hardware per invogliarli a costruire le cose che si pensa è buono per noi,” ha detto.

img-8546.jpg

Yann LeCun, testa di Facebook s Facebook AI unità di Ricerca, che si sviluppa fondamentali scoperte nel profondo di apprendimento che i propri prodotti, in un’intervista a ZDNet.

Tiernan Ray per ZDNet

LeCun ha in precedenti interviste accennato alla possibilità di interno chip di sviluppo. Tuttavia, “La differenza è che ora c’è l’attività interna su questo, che è stato molto nascente al momento”, ha detto, il che significa, quattro anni fa. Chiesto di espandere su ciò che l’attività interna a Facebook, LeCun esitò. “Probabilmente non lo dico”, ha detto con una risata.

Anche: ISSCC 2019 Anteprima: la Legge di Moore potrebbe rallentare, ma l’innovazione non

Google Tensore Unità di Elaborazione, o TPU, è stato citato da LeCun come un esempio del tipo di lavoro interno da grandi aziende, si sta parlando di.

Più in generale, LeCun ha ribadito essenziale della sua plenaria parlare per quanto riguarda l’esigenza di un ampio sforzo dell’industria per affrontare in profondità apprendimento di silicio in molti punti durante la formazione e processo di inferenza.

Highlights di LeCun punti sono contenute in un video che ha fatto, inviato da Facebook AI Ricerca di lunedì mattina.

LeCun ha pubblicato le sue diapositive dal suo discorso di questa mattina.

Per esempio, c’è una necessità impellente per la bassa potenza del chip di lavorare su tutti i dati del sensore proveniente da dispositivi mobili, ma lavorando e che i dati sui dispositivi stessi, invece di inviare i dati al cloud.

Poi ci sono le aree di calcolare “in mezzo”, come il tradizionale “non in linea” per la formazione di reti neurali nel cloud e tradizionali inferenza nel cloud. Entrambe le attività consumano un sacco di energia, quindi anche qui, l’industria ha bisogno di fornire più energia-efficiente.

Alla fine più alto del deep learning catena alimentare, nei reparti R&D di Facebook e gli altri, c’è bisogno di più opzioni oltre il fornitore dominante Nvidia, la cui Gpu sono de-facto soluzione per la rete neurale di formazione.

“Al fine, ciò di cui abbiamo bisogno ora sono concorrenti del fornitore dominante, al momento,” ha detto LeCun. “Non perché non sono bravo a farlo, ma perché non fare ipotesi e sarebbe bello avere un diverso insieme di hardware che rende diverse ipotesi che possono essere utilizzati per complementare le cose che l’attuale generazione di Gpu.”

Tuttavia, come queste alternative chip dovrebbe essere strutturato è una questione aperta, ha Detto LeCun. È chiaro che domani reti neurali sarà di gran lunga più grande di oggi, ha detto, perché di cose come la necessità di prendere in un video intero feed e guardare tonnellate e tonnellate di pixel, per cose come predire il moto da un video clip. Ma, allo stesso tempo, tali operazioni possono essere calcolate in un’architettura di elaborazione che è diversa da quella di oggi matrice moltiplicare hardware. Matrici e tenditori, la costruzione di blocchi di oggi AI hardware, probabilmente non sarà la soluzione ideale in futuro, ha detto.

State-of-the-art chip sono “fondamentalmente ottimizzato per fare un sacco di quattro per quattro matrice moltiplica”, ha detto LeCun. “Quindi, se è possibile ridurre tutte le vostre reti neurali per quattro per quattro matrice moltiplica, va bene. Ma non può essere un ottimo modo per fare un sacco di circonvoluzioni,” ha detto.

Che cosa si potrebbe sostituire? “Non lo so. Io penso che il vero hardware geni dovrà inventare nuovi modi di fare le cose.”

“In qualche misura si potrebbe pensare a questo come un simile insieme di operazioni che per il momento non in reti neurali, tranne che il modo di accedere ai dati sia attraverso interazioni; invece di cose a venire a voi in un array ordinato, quello che hai è un array di puntatori a recuperare i dati,” per cose come l’elaborazione grafico-base di dati.

Deve leggere

‘IA è molto, molto stupido”, dice Google AI leader (CNET)Come ottenere tutti Google Assistente nuove voci di adesso (CNET)Unificata di Google IA divisione di un chiaro segnale di AI del futuro (TechRepublic)Top 5: le Cose da sapere riguardo AI (TechRepublic)

Che potrebbe comportare modi per ottimizzare il traffico di memoria, tra cui “smart cache” o esplorare le parti del grafico prima del tempo, ha detto LeCun.

W:”alla fine, sarà moltiplicare-aggiunge, la domanda è: è possibile mettere ordinatamente nella forma di un mazzo di dot-prodotti, o un gruppo di matrice-vettore si moltiplica, o un gruppo di matrice moltiplica”, ha spiegato. “Il presupposto è che si può ridurre a un gruppo di matrice moltiplica. Non credo che è la risposta.”

Qualunque forma il nuovo chip architetture, LeCun crede AI focalizzato l’hardware può prendere più complessiva dei carichi di lavoro di calcolo.

“Non vorrei speculare in termini di dollari, ma in termini di FLOP, o operazioni, se passano cinque, dieci anni nel futuro, e si guarda a cosa fare computer di trascorrere il loro tempo a fare, per lo più, io credo di fare le cose profonde di apprendimento, la maggior parte di loro. In termini di calcolo, non in termini di ricavi, di utili, numero di computer, numero di dispositivi, ma in termini di come abbiamo trascorso il nostro milliwatt o INFRADITO, che saranno spesi in questo modo.”

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Google AI naviga in “gamescape” per conquistare la teoria dei giochi
Questo è ciò che l’IA sembra (come disegnato dall’IA)
Google DeepMind team leader 3D game dev piattaforma
DeepMind AI punti i primi segni della malattia dell’occhio

Argomenti Correlati:

Big Data Analytics

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software