AI på Android mobiltelefoner stadig et work-in-progress

0
117

Nul

Kører kunstig intelligens på mobile enheder er et varmt område af konkurrence mellem leverandører som Apple og Samsung, som tydeligt fremgår af Apple ‘ s fortsatte fokus på de “neurale motor” kredsløb i sin “En-serien” processorer i iPhone.

Men som en teknologi, mobil neurale netværk argumentation er stadig et område under udvikling af passer og starter.

Nyere forskning understreger, hvor ulige er bestræbelserne på at køre neurale net på Google ‘ s Android styresystem. Benchmark resultater fra forskere ved det Schweiziske universitet ETH Zürich viser, at udviklingen af neurale netværk på mobile enheder er stadig et hår virksomhed, med rammer, der er ufuldstændige, chipsæt med blandede støtte til netværk og resultater, der er svære at benchmarke pålideligt.

I en artikel udgivet på arXiv i denne uge, med titlen “PIRM Udfordring på Perceptuelle billedforbedring på Smartphones,” Andrey Ignatov og Radu Timofte, både af computer vision laboratoriet på ETH Zürich, der beskriver, hvordan de rangerede hold af udviklere, der konkurrerede med forskellige typer af neurale netværk, der kører på Android-telefoner.

Også: Apple håber du vil finde ud af, hvad de skal gøre med AI på iPhone XS

Årsagen til den konkurrence, som Ignatov og Timofte forklare, er, at AI udvikling i disse dage er domineret af de tilgange, der anvendes på Pc ‘ er og servere, med lidt hensyn til, hvad der er nødvendigt i begrænset driftsmiljø af smartphones. ( Se den udfordring Web-side.)

“Den generelle opskrift for at opnå top resultater i disse konkurrencer er ganske ens: flere lag/filtre, dybere arkitekturer og længere uddannelse på snesevis af Gpu’ er.”

Måske, skriver forfatterne, at “Det er muligt at opnå en meget lignende perceptuelle resultater ved at bruge meget mindre og ressource-effektive netværk, der kan køre på almindelige bærbare hardware som smartphones eller tablets.”

De konkurrenter, der fik til opgave at komme op med blandinger af net-elementer, såsom convolutional neurale netværk, eller CNNs, til at udføre grundlæggende billede opgaver, såsom at forbedre udseendet af fotos, der er taget på telefonen. Deres netværk var forpligtet til at være skrevet i Google ‘ s TensorFlow ramme, var nødt til at passe ind i en fil, der ikke er større end 100 mb, og havde til at operere i, ikke mere end 3,5 gb DRAM. De modeller, der blev kørt af Ignatov og Timofte på to enheder, en 2017-æra “Razer Phone” fra Motorola, der kører på Android 7.1.1; og en Huawei “P20” fra April i år.

Resultaterne var rangeret i henhold til det netværk, der var det mest effektive gennemførelse i form af tid i millisekunder taget på CPU ‘ en til at beregne netværk, og også nogle foranstaltninger af kvaliteten af det arbejde, der er produceret.

Konkurrencen blev afholdt i samarbejde med European Conference on Computer Vision afholdt i midten af September i München, Tyskland.

Også: Huawei busted for snyd over P20, Ære Spille performance benchmarks

Baggrunden for alt dette er, at hardware acceleration af neurale netværk er fortsat en blandet landhandel. I et separat papir, ” AI Benchmark: Kører Dybt Neurale Netværk på Android-Smartphones,” udgivet i denne uge ved Ignatov og Timofte, og medforfatter sammen med repræsentanter fra Google, mobile chip-kæmpen Qualcomm, konkurrent MediaTek, forfatterne tog et kig på, hvordan forskellige chips i shipping Android-telefoner udføre, når de laver nogle grundlæggende image-behandlinger, så som ansigtsgenkendelse, billede-klassifikationen, og billedet de-sløring.

Forfatterne testet ni opgaver på tværs af 10.000 mobiltelefoner, der opererer i naturen, med over 50 forskellige modeller af processor, som indeholder mange neurale net acceleratorer og grafisk behandling enheder, eller Gpu ‘ er.

Hvad de fandt var en rigtig hodge-podge. Den enkleste måde at programmere de netværk, de bemærker, er at bruge Google ‘ s “TensorFlow Mobile” ramme, men det rammer ikke understøtter en nyere bibliotek, der er kendt som “Android NNAPI,” for “Android Neurale Net – værker API.” NNAPI var bygget til at abstrahere væk hardware oplysninger om de enkelte processor fra Qualcomm, MediaTek, Huawei og Samsung.

Så et nyt bibliotek, TensorFlow “Lite” er blevet fremsat af Google til at erstatte den mobile version, og det understøtter NNAPI, men Lite har sine egne begrænsninger: det er i en “preview” – udgaven, som på tidspunktet for rapporten, og så det mangler “fuld støtte” til et antal af neurale netværk operationer, herunder “batch og f.eks normalisering.”

Også: Qualcomm øger mid-range smartphone AI med Snapdragon 670 mobile platform

Forfatterne fandt også, Lite kan også forbruge meget mere DRAM end den Mobile version. Som for NNAPI, det understøtter ikke alle typer af neurale netværk. CNNs, for eksempel, vil alle blive indsat på AI acceleratorer i de enheder, eller Gpu ‘ er, men andre former for netværk er nødt til at ty til at køre på CPU.

I summen, forfatterne fandt, at hardware acceleration for neurale net “er nu udvikler sig ekstremt hurtigt,” men, at “den nuværende mangel på standardiserede krav og offentligt tilgængelige specifikationer, der ikke altid giver mulighed for en objektiv vurdering af deres reelle fordele og begrænsninger.”

I tilfælde af at du er interesseret i hardware resultater, forfatterne fandt, at “Kirin 970” – processor, der kører på Huawei-telefoner, og er udviklet af Huawei datterselskab HISilicon, toppet hitlisterne i de overordnede resultater på tværs af de ni opgaver. Det blev fulgt op af Mediatek “Helio P60,” og Samsung ‘ s “Exynos 9810.”

Men forfatterne advarer om, at de ikke vil tage parti, for så vidt som, hvis chippen er bedre givet “som vores analyse har vist, at næsten alle SoC producenter har potentiale til at opnå lignende resultater i deres nye chipsets.” Snarere, de forpligter sig til at yde løbende benchmark test resultater som nye chipsæt, og nye rammer og drivere, dukke op.

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Der er ingen rolle for AI eller data videnskab: dette er en holdindsats Start Slægt bringer splint af håb for AI i robotteknologi AI: udsigt fra Chief Data Videnskab Kontor Salesforce-introer Einstein Stemme, en AI stemme assistent for virksomheder er det ikke Det job AI er ødelæggende for at genere mig, det er dem, der er voksende, Hvordan Facebook skalaer AI

Relaterede Emner:

Smartphones

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0