Forskerne regne ud, hvordan at narre facial recognition systemer

0
168

Begrebet maskine-drevet facial anerkendelse er en, der går forud for dagens faktiske teknologi til det i mange år, takket være robot POV shots fra sci-fi film som Terminator og Robocop. Men mens mange fremskridt, facial anerkendelse software er langt fra ufejlbarlig, som forskere fra Carnegie Mellon University har for nylig fundet.

Her er detaljer fra en rapport i Kvarts:

Forskerne viste, at de kunne narre AI facial recognition systemer i misidentifying ansigter-at gøre en person fanget på kamera, vises for at være en anden person, eller endda ikke til at kende som menneske. Med en speciel par af brillestel, holdet tvunget kommercielle-grade software til ansigtsgenkendelse til at identificere den forkerte person med op til 100% succesrate.

Moderne software til ansigtsgenkendelse bygger på dyb neurale netværk, en smag af kunstig intelligens, der lærer mønstre fra tusinder og millioner af stykker af oplysninger. Når der vises millioner af ansigter, software lærer tanken om et ansigt, og hvordan man kan fortælle dem forskellige fra hinanden.

Som software-lærer, hvad et ansigt ser ud som om, det læner sig tungt på visse detaljer-som i form af næse og øjenbryn. Carnegie Mellon briller ikke blot dække de ansigtstræk, men i stedet er trykt med et mønster, der er opfattet af den computer, som facial oplysninger om en anden person.

I en test, hvor forskere har bygget en state-of-the-art facial recognition system, en hvid mand test emne iført briller optrådte som skuespiller Milla Jovovich med 87.87% nøjagtighed.

Testen var ikke teoretisk–CMU printes ud briller på glittet fotopapir og havde dem foran et kamera i et scenarie beregnet til at simulere at få adgang til en bygning, bevogtet af facial anerkendelse. Briller koster $.22 pr par at gøre.

De briller, der også havde en 100% succesrate mod den kommercielle software til ansigtsgenkendelse Ansigt++, selv om der i dette tilfælde var de digitalt anvendes på billeder, Kvarts noter. CMU ‘ s forskning, der følger tilsvarende indsats fra Google, OpenAI, og andre, det giver.

Mens Kvarts er understreget i rapporten, at de sikkerhedsrisici, der er forbundet med den sårbarhed af neurale netværk med hensyn til ansigtsgenkendelse, der er andre alvorlige ting at overveje, så godt, siger Constellation Research VP og ledende analytiker Steve Wilson.

CMU ‘ s forskning “viser os en masse af vores intuitioner om edb-objekt anerkendelse er false,” siger han. “Når jeg siger “intuition” jeg mener virkelig, vi har lært vores forventninger til kunstig intelligens fra at se science fiction. Hvad vi har fået, er en stor sæt af teknologier, der stadig er under udvikling. Der er et presserende offentlige debat om, hvad det hele betyder, fra selvkørende biler til lufthavn sikkerhed, men det er baseret på en forenklet forståelse af, hvordan maskiner, se.”

I dag er neurale netværk, der gå ud over gamle-gammeldags metoder af objekt anerkendelse — tagging, udvinding af funktioner og farver, så behandlingen af oplysninger til at identificere forskellige objekter — Wilson bemærker. Neurale netværk er udråbt som en afspejling af, hvordan den menneskelige hjerne fungerer, med evnen til at lære over tid. Det er hvad der gør CMU ‘ s forskning så vigtig.

“CMU kommer og siger, at vi kan tage en ting som et par briller, der ikke engang ligner målet ansigt på alle, og de neurale netværk, der udløser noget om det objekt,” siger han. “Det neurale netværk er nede på ikke-åbenlyse funktioner. Du kan narre den, på måder, der lå mennesker aldrig kunne have forudset.”

Wilson point til episode i juni, hvor en amerikansk mand var den første person til at dø i en selvkørende bil ulykke. Hans Tesla ‘ s sensor-system, der var ude af stand til at skelne mellem en traktor, trailer krydse vejen, og den lyse himmel, og bilen kørte ind i den med høj hastighed, med fatale resultater. “Jeg er ikke bebrejde neurale netværk per se, men jeg er bekymret for, at disse nye vision systemer er meget sværere at analysere og debug end den klassiske computer-programmer, vi er kommet til at forvente,” Wilson siger.

Neurale netværk er set som et centralt element i at få selvkørende biler på markedet, og på vejen i massevis. CMU research skal give dem, der er ivrige efter at se dette ske alvorlig pause, og indse, at det er tid til en mere sofistikeret offentlige samtale om neurale netværk.

“Hvis nogen bliver dræbt [i en selvkørende bil], og sagen går til retten, kan vi få systemets logfiler og se, hvad bilen så? Der kan ikke være muligt,” siger han. “Jeg regner med, at de politiske beslutningstagere mener, at det virker sådan.”

“Neurale netværk, der bare ikke har en trin-for-trin-algoritme og revision log”, tilføjer han. “De virker ikke som om at. Tænke på Carnegie Mellon arbejde. Det er meget overraskende, at der er noget, som ikke ligner et ansigt kan fortolkes som et ansigt. Et neuralt netværk-drevne bil tønder ned af vejen, der ved, hvad det er at se? Derfor, de mennesker, der er ved at skrive de love og drøfte mulighederne er nødt til at have en mere nuanceret diskussion om, hvordan kunstige hjerner fungerer, og hvordan de kan fejle.”

Wilson anbefaler, i det mindste, at test-cases for neurale machine vision og blive kastet langt mere udbredt. “Det er ikke nok at teste, hvordan en selvstyrende bil reagerer plast hunde og plastic børn,” siger han. “Vi må nu indse, at neurale netværk er ikke på udkig efter disse ting eksplicit. De kan reagere på kombinationer af optiske indgange, som vi intuitivt ville aldrig tænke på at prøve.”

24/7 Adgang til Konstellation Indsigt tilmeld dig allerede nu for ubegrænset adgang til ekspert analytiker synspunkter om breaking news.