L’IA cellulari Android ancora un work-in-progress

0
99

Zero

L’esecuzione di intelligenza artificiale su dispositivi mobili è una zona calda della concorrenza tra produttori come Apple e Samsung, come ampiamente dimostrato da Apple continua enfasi sul “motore neurale” circuito all’interno della sua “serie A” processori di iPhone.

Ma come tecnologia, mobile, rete neurale ragionamento è ancora un campo in continua evoluzione da un singhiozzo.

Una recente ricerca mette in luce come irregolari sono gli sforzi per eseguire le reti neurali su sistema operativo Android di Google. I risultati dei Benchmark da ricercatori Svizzeri dell’università ETH di Zurigo rivelano che lo sviluppo delle reti neurali su dispositivi mobili, è ancora un peloso di affari, con i quadri che sono incomplete, chipset con un misto di supporto per le reti e i risultati, che sono difficile da valutare in modo affidabile.

In un articolo pubblicato su arXiv questa settimana, dal titolo “PIRM Sfida Percettiva di Miglioramento delle Immagini su Smartphone,” Andrey Ignatov e Radu Timofte, entrambi i computer vision di laboratorio presso l’ETH di Zurigo, descrivere le modalità ranked team di sviluppatori, che hanno gareggiato con diversi tipi di reti neurali in esecuzione su telefoni Android.

Anche: Apple spera potrai capire cosa fare con l’IA iPhone XS

Il motivo per il concorso, come Ignatov e Timofte spiegare, è che AI lo sviluppo di questi giorni è dominato dai metodi utilizzati su Pc e server, con poca considerazione per ciò che è necessario vincolata ambiente operativo di smartphone. ( Vedere la sfida della pagina Web.)

La ricetta per ottenere i migliori risultati in queste competizioni è molto simile: più strati/filtri, più profondo, le architetture e la formazione più di decine di Gpu.”

Forse, scrivono gli autori, “è possibile ottenere molto simile percettivo risultati utilizzando molto più piccolo ed efficiente delle risorse di reti che possono essere eseguiti su comuni dispositivi hardware portatili come smartphone o tablet.”

I concorrenti avevano il compito di venire con miscele di elementi di rete, come convolutional reti neurali, o CNNs, per eseguire le operazioni di base di immagine compiti, come ad esempio migliorare l’aspetto delle foto scattate sul telefono. Le loro reti sono state necessarie per essere scritto in Google TensorFlow quadro, dovuto adattarsi in un file di dimensioni non superiori a 100 megabyte, e ha dovuto operativo in non più di 3.5 gb di DRAM. I modelli sono stati eseguiti da Ignatov e Timofte su due dispositivi, un 2017-era “Razer Telefono” da parte di Motorola, in esecuzione su Android 7.1.1; e un Huawei “P20” da aprile di quest’anno.

I risultati sono stati classificati in base al quale la rete è stata la più efficace attuazione in termini di tempo in millisecondi prese sulla CPU per calcolare le reti, e anche alcune misure della qualità del lavoro prodotto.

Il concorso si è svolto in collaborazione con la European Conference on Computer Vision terrà a metà settembre a Monaco di baviera, in Germania.

Anche: Huawei arrestato per barare su di P20, Onore Giocare benchmark delle prestazioni

Sullo sfondo di tutto questo è che l’accelerazione hardware delle reti neurali rimane un sacchetto mixed. In una carta separata, AI Benchmark: l’Esecuzione di Profonda Reti Neurali su Smartphone Android, pubblicato questa settimana da Ignatov e Timofte, e co-autore con i rappresentanti di Google, chip mobile gigante Qualcomm, concorrente MediaTek, gli autori hanno preso uno sguardo a come i diversi chip di spedizione telefoni Android eseguire quando si fa qualche immagine di base operazioni di trattamento, come il riconoscimento del volto, classificazione di immagine, e l’immagine de-sfocatura.

Gli autori hanno testato le nove attività per 10.000 telefoni cellulari di esercizio in natura, con oltre 50 modelli di processore contenente numerosi rete neurale acceleratori e unità di elaborazione grafica o Gpu.

Che cosa hanno trovato è stato un vero guazzabuglio. Il modo più semplice per programmare le reti, le note, utilizzando Google “TensorFlow Mobile” del quadro, ma che framework non supporta una nuova libreria, noto come “Android NNAPI,” per “Android Neural Net – works API.” NNAPI è stato costruito per distogliere i dettagli hardware dei singoli processori Qualcomm, MediaTek, Huawei e Samsung.

Così una nuova libreria, TensorFlow “Lite” è stato presentato da Google per sostituire la versione mobile, e supporta NNAPI, ma la Lite ha i suoi limiti: è in “anteprima” di rilascio al momento della relazione, e quindi manca il “pieno sostegno” per un numero di rete neurale operazioni, tra cui “batch e istanza di normalizzazione.”

Anche: Qualcomm aumenta smartphone mid-range AI con Snapdragon 670 piattaforma mobile

Gli autori hanno anche osservato Lite può anche consumare molto di più DRAM che la versione Mobile. Come per NNAPI, non supporta tutti i tipi di reti neurali. CNNs, per esempio, a tutti sarà distribuito in AI acceleratori nei dispositivi, o Gpu, ma per altri tipi di reti di ricorrere ad esecuzione sulla CPU.

In sintesi, gli autori hanno trovato che l’accelerazione hardware per le reti neurali “si evolve molto velocemente”, ma che “l’attuale mancanza di requisiti standard e alle specifiche pubbliche non sempre consentono una valutazione oggettiva delle reali vantaggi e limiti.”

Nel caso foste interessati hardware risultati, gli autori hanno trovato che il “Kirin 970” processore in esecuzione in telefoni Huawei, e sviluppato da Huawei controllata HISilicon, la vetta della classifica in termini di prestazioni complessive nei nove compiti. E ‘ stato seguito da Mediatek “Helio P60,” e di Samsung “Exynos 9810.”

Ma gli autori attenzione a non prendere le parti, per quanto di cui il chip è meglio, dato il “la nostra analisi ha dimostrato che quasi tutti i SoC i produttori hanno il potenziale per raggiungere simili risultati nel loro nuovo chipset.” Piuttosto, essi si impegnano a fornire in corso benchmark i risultati del test i nuovi chipset, e nuovi quadri di riferimento e i driver, di emergere.

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Non c’è un ruolo per IA o i dati della scienza: questo è un lavoro di squadra di Avvio del Parentado porta scheggia di speranza per l’intelligenza artificiale robotica AI: La vista dal Capo Scienza di Dati Ufficio Salesforce intro Einstein Voce, una IA assistente vocale per le imprese non i posti di lavoro AI è distruggere che mi da fastidio, è che quelli che stanno crescendo Come Facebook scale AI

Argomenti Correlati:

Smartphone

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software

0