Google ‘ s image anerkendelse AI narre af nye tricks

0
87

Nul

Den enestående eksempel på AI ‘ s fremskridt i de sidste mange år, er, hvor godt computere kan genkende noget i et billede. Stadig, selv simple test kan vise, hvordan skørt sådanne evner virkelig er.

Det seneste trick til at game systemet kommer høflighed af forskere på Auburn University i Auburn, Ala., og medier titan Adobe Systems. I en artikel udgivet i denne uge, viste det øverste billede-anerkendelse neurale netværk let mislykkes, hvis objekter er flyttet eller drejet selv ved mindre mængder.

En brandbil, for eksempel, set fra hoved på, kunne være rigtigt anerkendt. Men når pegede op i luften, og vendte sig flere gange, samme brandbil er mis-klassificeret af neurale net som en skole bus eller en fireboat eller en bobslædebane.

Også: Facebook Oculus forskning håndværk mærkelige mashup af John Oliver og Stephen Colbert

Mens tidligere undersøgelser har vist billeder kan ændres i form af tekstur eller belysning for at narre et neuralt net, dette er første gang, den “stille”, hvilket betyder at 3D-orientering af et objekt, er blevet manipuleret til at skabe billede prøver, at kunne rejse op netværket.

Resultatet er, at state of the art i billedet anerkendelse er “naiv”, og nogle større forståelse af tre-dimensionelle strukturer, der synes nødvendige for at hjælpe dem med at få det bedre.

State of the art neurale netværk som Google ‘ s Start er gode til at “klassificere” ting i billeder, de indgår, men de er ikke rigtig genkende objekter, i den sande betydning af dette udtryk.

Det papir, Strejke (med) Udgør: Neurale Netværk, der Er lette at Narre af Mærkelige Udgør af Velkendte Objekter, der er bogført på arXiv pre-print server, og er forfattet af Michael A. Alcorn, Qi Li, Zhitao Gong, Chengfei Wang Wei-Shinn Ku, og Anh Nguyen af Auburn, og Lange Mai af Adobe. (Adobe også bidraget med økonomisk støtte til indsatsen.)

Forfatterne har også lagt den kode, de plejede at gøre det på GitHub.

Også: Google funderer den mangler af machine learning

google-inception-fooled-into-mis-classification.png

Forskere ved Auburn, der anvendes computer-genererede objekter billeder til at narre Google ‘ s “Inception” netværk i misclassifying objekter i billeder, blot ved at rotere objekter ved så meget som 10 grader.

Forskerne har købt et data sæt af 100 tredimensionelle computer-genererede objekter, der er smilier til ting, der er fundet i ImageNet database, der bruges til at træne neurale netværk til billed-genkendelse. Det betyder, at køretøjer, som skolebusser og brandbiler, og stop skilte og bænke og hunde.

De så ændret dem, 3D-objekter ved at ændre pitch, yaw og roll af objekter. De brugte en procedure, der kaldes “tilfældig søgning” for at finde rejser, der kunne narre Google ‘ s state-of-the-art “Inception v. 3” netværk. I det væsentlige, de var uddannelse et sæt af ligninger at blive gode til at generere “kontradiktorisk eksempler” af billeder, form for grubetæring en neurale netværk mod en anden.

I deres test, Inception “var forkert, for det store flertal af prøver,” skriver de. “Median procent af korrekte klassifikationer for alle 30 genstande var kun 3.09 procent.”

Det afgørende punkt er, at Google ‘ s Inception faktisk ikke mis-karakterisere alle billeder af et objekt — nogle billeder, der genereres af systemet, at det fik ret. Men der en tendens til at være meget smal i, hvad det har fået, er at få forvirret af rejser, der blev uden for normen.

“DNN’ s evne til at genkende et objekt (fx en brand lastbil) i et billede, varierer radikalt som det objekt, der er drejet i verden,” skriver de.

Forfatterne fandt, bare en lille smule ændring kan have en stor virkning: en forskel på at flytte objektet 8 grader i forhold til “pitch” og 9.17 i form af den “roll” på en scene, var nok til at forvirre Begyndelse. Det kontradiktoriske neurale net var i stand til at sende Start ud i det ukrudt, tvinger det til at mis-klassificere ting på tværs 797 forskellige objektklasser.

Også: Se YouTube-videoer, en dag kan lade robotter kopiere mennesker

Resultatet er, at Inception og andre billede anerkendelse systemer som ikke rigtig genkende objekter, per se. “Alt i alt vores arbejde viser, at state-of-the-art DNNs per – form billedet klassificering godt, men er stadig langt fra sandt objekt anerkendelse,” skriver de. Men selv object detection kan blive narret, de fandt. Forfatterne derefter brugt deres kontradiktorisk system til at tage med på top-of-the-line “Yolo v3” objet anerkendelse. De fandt 75.5 procent af de billeder, der slog Starten også narret Yolo.

Det er klart, neurale netværk, der måske har brug for nogle store hjælp til at komme videre. Selv når “AlexNet” neurale netværk blev re-uddannet, med det kontradiktoriske billeder, der indgår i den ImageNet database, var det stadig narre, når de præsenteres med nye eksempler på kontradiktorisk billeder efter træningen.

Også: Google AI forskere finder mærkeligt ny grund til at spille Jeopardy!

Forfatterne peger på, at nogle af problemet måtte have at gøre med en vis æstetisk i billeder fundet på Internettet, der er brugt i uddannelse af neurale netværk.

“Fordi ImageNet og MS COCO-datasæt er konstrueret ud fra fotografier taget af folk, de datasæt, der afspejler den æstetiske tendenser i deres fangevogtere,” skriver de.

Forfatterne peger på, at en løsning er at lægge op ImageNet med masser af kontradiktorisk eksempler. Men de påpeger, at “acquring en stor-skala, høj kvalitet 3D-objekt datasæt er dyrt og arbejdskrævende.”

Et andet svar, de foreslår, er at bruge “geometriske priors” at give neurale net større raffinement.

Den undersøgelse, de tilbyder, kan være begyndelsen på at skabe hele “kontradiktorisk verdener”, der kan teste dyb læring. Den slags arbejde, der kunne “tjene som en forklarlig værktøj til at udtrække nyttig indsigt om disse black-box modeller’ indre funktioner.”

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

36 af de bedste film om AI, rankedThis er, hvad AI ligner (som skitseret ved AI)AI-killer robotter er på vej, men FN ‘ s ønsker dem bannedDigital transformation i 2019: AI, robotteknologi, og IoT til at spille roller

Relaterede Emner:

Google

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0