Facebook è Yann LeCunn riflette il fascino senza tempo di circonvoluzioni

0
193

Trent’anni fa, Yann LeCun sperimentato l’uso di una particolare forma di apprendimento automatico, chiamato convolutional rete neurale, o la CNN, mentre presso l’Università di Toronto. Tale approccio, lo spostamento di un filtro su un insieme di pixel per individuare modelli nelle immagini, ha mostrato la promessa in problemi di fessurazione come ottenere il computer di riconoscere scritti a mano in cifre con un minimo umana di orientamento.

yann-lecun-feb-2019.jpg

Facebook AI leader di Ricerca Yann LeCun.

Tiernan Ray per ZDNet.

Anni dopo, LeCun, poi all’università di new york, ha lanciato un “complotto”, come egli stesso l’ha definita, per portare la macchina di apprendimento torna alla ribalta dopo un lungo inverno per la disciplina. La chiave era LeCun della CNN, che aveva continuato a sviluppare la loro raffinatezza al punto in cui potrebbe produrre risultati in computer vision che ha sbalordito il campo.

Le nuove scoperte con CNNs, insieme con le innovazioni da parte dei coetanei come Yoshua Bengio, di Montreal MILA di gruppo per l’apprendimento automatico, e Geoffrey Hinton di Google Cervello, è riuscito a creare una nuova primavera per IA ricerca, in forma di apprendimento profondo.

Oggi, l’appello di elucubrazioni, non mostra segni di raffreddamento, come la tecnica si diffonde come un erbaccia in ogni angolo del machine learning. Ricerche recenti hanno dimostrato che la prevalenza di CNNs tra i modelli di rete neurale in uso. Uno studio pubblicato da Microsoft nel mese di novembre, che ha esaminato il tipo di profonda reti in esecuzione su dispositivi mobili Android, ha rilevato che quasi il 90% delle reti recuperato da mobile sono stati un qualche tipo di CNN.

Presso l’International Solid State Circuits Conference a San Francisco questa settimana, LeCun riflettuto sul perché questa semplice tecnica ha prosperato, e perché la sua influenza può solo crescere, nel suo punto di vista.

Anche: Facebook è Yann LeCun dice ‘interno di attivita’ proventi AI chip

“Un sacco di segnali che i sistemi che avrà a che fare con sono naturali e i segnali che provengono da un array di sensori”, ha detto LeCun, in un’intervista a ZDNet seguendo il suo discorso di apertura, il lunedì.

“Qualsiasi cosa proveniente da una telecamera, tra cui panoramiche e telecamere etc. Audio, sia in forma di file audio raw o in forma di tempo-frequenza rappresentazioni.” Video anche bisogno di essere trattati tramite la convoluzione, LeCun, ha detto, tra cui soprattutto il 3-D di imaging da sensori di profondità come LIDAR.

Infatti, molte delle dimostrazioni di diversi chip allo show di questa settimana in vetrina “familiarità mappa di segmentazione,” un’immagine sullo schermo del computer di cose visto attraverso una macchina fotografica, se una vettura vista della strada o una vista di persone in sala. Ogni oggetto è da evidenziare un contorno colorato con un’etichetta che indica il tipo di cosa che è — una persona, un cane, un lampione, etc. Circonvoluzioni sono zeitgeist dell’epoca attuale, la più chiara espressione di AI di abilità in un certo senso capire il mondo che la circonda.

“Quindi, per tutto questo, la maggior parte dei tuoi cicli sono andando essere impiegati per l’elaborazione del segnale a basso livello”, ha detto LeCun, il che significa che i cicli di calcolo saranno spesi per la raccolta di ciò che ogni pixel di miliardi di pixel in un’immagine o un video con la visualizzazione. “E cos’altro, ma circonvoluzioni hai intenzione di utilizzare? Ora, non c’è alternativa. Così, la maggior parte dei cicli stanno per essere passato a fare elucubrazioni, non c’è dubbio.”

Anche Google: immagine di riconoscimento AI ingannare da nuovi trucchi

lecuns-early-image-network-1989.jpg

Un’immagine di riconoscimento di rete neurale sviluppato da LeCun, nel 1989, un precursore dell’attuale convolutional reti neurali.

Yann LeCun et al. 1989

Alla conferenza, c’erano un sacco di chip innovazioni dedicato alla migliore elaborazione delle circonvoluzioni. Per esempio, i ricercatori presso l’Università del Michigan ha mostrato un disegno per applicazioni automotive che sono in grado di spostare alcune delle funzioni del LIDAR da invece analizzando i fotogrammi di un video da un auto on-board camera. I ricercatori hanno detto che aveva fatto una svolta nel modo di sviluppare un chip dedicato per CNNs che verrà eseguito il modello di rete ad alta velocità, consumando meno energia.

Ci sono alcuni gravi problemi tecnici come CNNs diffusione di applicazioni al di là di riconoscimento di immagini, ha detto LeCun. In caso di 3-D di imaging, con sensori di profondità come LIDAR, in cui i dati sono nella forma di “nuvole di punti”, ha osservato LeCun, “più di 3-D che domini la tua rete neurale dovrà processo sarà vuota — è molto scarso in termini di attivazioni.”

Quello che non si vuole sono circonvoluzioni che rifiuti un sacco di tempo a lavorare su moltiplicando gli zeri di una gran parte vuoto, un vettore o di una matrice. “Allora, volete sapere dove sono i dati, e quindi di essere intelligenti su come seguire questo”, ha detto LeCun. Egli ha osservato che c’è stato un lavoro sulla questione a Facebook, tramite “sparse convnets,” in esecuzione su Gpu, “Ma che potrebbe richiedere alcuni più basso livello di supporto”, in hardware, osservato LeCun.

Ecco dove l’hardware gli innovatori devono andare al lavoro, ha suggerito.

Samsung ricercatori martedì hanno presentato il loro progetto per un mobile system-on-a-chip, in grado di “sfoltire” gli ingressi per evitare appunto l’elaborazione di zeri sparse di ingresso campioni. LeCun espresso la sua approvazione, dopo aver ascoltato il discorso, tweeting alcune specifiche di Samsung di lavoro.

“Più di frequente pronunciò la parola all’ISSCC questa mattina: convoluzione,” ha twittato il padrino di CNNs.

Argomenti Correlati:

Big Data Analytics

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software