Forskarna räkna ut hur för att lura facial recognition system

0
210

Begreppet maskin som drivs ansiktsigenkänning är en som föregick dagens faktiska teknik för det i många år, tack vare roboten POV bilder från sci-fi filmer som Terminator och Robocop. Men medan många framsteg har gjorts, programvara för ansiktsigenkänning är långt ifrån ofelbar, som forskare från Carnegie Mellon University nyligen hittade.

Här är information från en rapport i Kvarts:

Forskare visade att de kunde lura AI ansiktsigenkänning används i misidentifying ansikten-att göra någon fångats på kamera visas för att vara någon annan, eller ens oigenkännlig som människa. Med ett speciellt par av glasögonbågar, laget tvingas kommersiell kvalitet programvara för ansiktsigenkänning till att identifiera fel person, med upp till 100% träffsäkerhet.

Modern programvara för ansiktsigenkänning bygger på djup neurala nätverk, en smak av artificiell intelligens som lär sig mönster från tusentals och miljontals bitar av information. När visas miljontals ansikten, programmet lär sig idén om ett ansikte, och hur man berättar olika dem isär.

Eftersom programvaran lär sig vad ett ansikte ser ut, det lutar tungt på vissa detaljer-som formen på näsan och ögonbrynen. Carnegie Mellon glasögon inte bara täcka dessa ansiktsdrag, men istället är tryckt med ett mönster som uppfattas av datorn som facial information av en annan person.

I ett test där forskare byggt en state-of-the-art ansiktsigenkänning systemet, en vit manlig försöksperson bär glasögon dök upp som skådespelerskan Milla Jovovich med 87.87% noggrannhet.

Testet var inte teoretiska–CMU skrivas ut glasögon på glansigt fotopapper och bar dem framför en kamera i ett scenario innebar att simulera att få åtkomst till en byggnad som vaktas av ansiktsigenkänning. Glasen kostar $.22 per par att göra.

Glasögonen hade också en 100 procent framgång mot kommersiell programvara för ansiktsigenkänning Ansikte++, men i detta fall var de digitalt tillämpas på bilder, Kvarts anteckningar. CMU: s forskning följer liknande insatser av Google, OpenAI, och andra, det tillför.

Medan Kvarts rapport betonade de säkerhetsrisker som är förknippade med sårbarheten hos neurala nätverk om ansiktsigenkänning, det finns andra viktiga frågor att tänka på också, säger Constellation Research vice vd och chefsanalytiker Steve Wilson.

CMU: s forskning “visar oss en hel del av våra föreställningar om datoriserade objekt erkännande är falska”, säger han. “När jag säger “intuition” jag verkligen att vi har lärt oss våra förväntningar för artificiell intelligens från att titta på science fiction. Vad vi har är en enorm uppsättning av teknik som ännu är under utveckling. Det finns ett akut offentliga samtalet om vad det innebär, från att själv köra bil till flygplatsen säkerhet, men det bygger på en förenklad förståelse av hur maskiner se.”

Dagens neurala nätverk för att gå bortom gamla hederliga metoder för objektigenkänning — märkning, utvinna funktioner och färger, och sedan bearbeta informationen för att identifiera olika objekt — Wilson anteckningar. Neurala nätverk är tippad som speglar hur den mänskliga hjärnan fungerar, med förmågan att lära sig över tiden. Det är det som gör CMU: s forskning så viktig.

“CMU kommer och säger att vi kan ta en sak som ett par glasögon som inte ens liknar mål ansikte på alla och neurala nätverk utlöser något om objektet”, säger han. “Det neurala nätverket är låsning på icke-uppenbara funktioner. Du kan lura det, på ett sätt som låg människor aldrig kunde ha väntat.”

Wilson poäng till olyckan i juni, när en amerikansk man som blev den första personen att dö i en självgående bil olycka. Hans Tesla ‘ s sensor-systemet var oförmögen att skilja mellan en traktor som korsar vägen och den ljusa himlen, och bilen körde in den i hög hastighet med dödlig utgång. “Jag är inte skylla på neurala nätverk, per se, men jag är orolig för att dessa nya vision-system är mycket svårare att analysera och felsöka än klassisk dator program som vi har kommit att förvänta sig,” Wilson säger.

Neurala nätverk ses som en viktig del i att få självstyrande bilar på marknaden och på vägen en masse. CMU forskning bör ge dem som är ivriga att se det hända allvarliga paus, och inser att det är dags för en mer sofistikerad offentliga samtal om neurala nätverk.

“Om någon blir dödad [i en självgående bil] och ärendet går till domstol, kan vi få systemet loggar och se hur bilen såg? Det kan inte vara möjligt”, säger han. “Jag tror att beslutsfattare tror att det fungerar så.”

“Neurala nätverk har inte en steg-för-steg-algoritm och logg”, tillägger han. “De fungerar inte så. Tänk om Carnegie Mellon arbete. Det är väldigt konstigt att något som inte ser ut som ett ansikte kan tolkas som ett ansikte. Ett neuralt nätverk-driven bil farande vägen, vem vet vad det är ser? Därför är de människor som skriver lagar och diskuterar möjligheter måste ha en mer nyanserad diskussion om hur konstgjorda hjärnor fungerar och hur de kan misslyckas.”

Wilson rekommenderar, åtminstone, att testfall för neurala machine vision att bli kastade i mycket större utsträckning. “Det är inte tillräckligt för att testa hur en autonom bil reagerar på plast hundar och plast barn, säger han. “Vi måste nu inse att neurala nätverk inte söker för dessa saker uttryckligen. De kan reagera på kombinationer av optiska ingångar vi skulle intuitivt tror aldrig att testa.”

24/7 Tillgång till Stjärnbilden Insikter Prenumerera idag obegränsad tillgång till expert analytiker synpunkter på breaking news.