I ricercatori a capire come trucco sistemi di riconoscimento facciale

0
197

La nozione di macchina alimentata a riconoscimento facciale è quella che precede oggi la tecnologia attuale per molti anni, grazie al robot colpi di POV da sci-fi film come Terminator e Robocop. Ma mentre molti progressi sono stati fatti, software di riconoscimento facciale è ben lontano dall’essere infallibile, come i ricercatori della Carnegie Mellon University ha recentemente trovato.

Ecco i dettagli da un rapporto di Quarzo:

I ricercatori hanno dimostrato che può ingannare AI sistemi di riconoscimento facciale in misidentifying facce-a qualcuno e catturato su fotocamera sembra essere qualcun altro, o addirittura irriconoscibile umani. Con uno speciale paio di occhiali, la squadra costretta a livello commerciale software di riconoscimento facciale nell’individuare la persona sbagliata con un massimo di 100% tasso di successo.

Moderno software di riconoscimento facciale si basa su una profonda reti neurali, un sapore di intelligenza artificiale che impara modelli da migliaia e milioni di pezzi di informazioni. Quando viene visualizzato milioni di facce, il software impara l’idea di un volto, e come dire diversi da quelli di distanza.

Il software impara che faccia sembra, si appoggia pesantemente su alcuni dettagli, come la forma del naso e delle sopracciglia. La Carnegie Mellon occhiali, non solo a coprire quei tratti del viso, ma invece sono stampati con un motivo che viene percepito dal computer come dettagli del viso di un’altra persona.

In un test in cui i ricercatori costruito uno stato-of-the-art sistema di riconoscimento facciale, un maschio bianco soggetto di prova indossando gli occhiali apparso come attrice Milla Jovovich con 87.87% di precisione.

Il test non è teorico–CMU stampato il bicchieri in carta fotografica lucida e li portava in fronte a una telecamera in uno scenario destinato a simulare l’accesso a un edificio custodito dal riconoscimento facciale. Gli occhiali costano $.22 per coppia a fare.

Gli occhiali aveva anche un 100 per cento tasso di successo contro il commerciale, il software di riconoscimento facciale Viso++, anche se in questo caso sono stati digitale applicato sulle immagini, Quarzo note. CMU di ricerca segue l’analogo sforzo da parte di Google, OpenAI, e gli altri, aggiunge.

Mentre Quarzo relazione ha sottolineato i rischi di sicurezza connessi con la vulnerabilità delle reti neurali per quanto riguarda il riconoscimento facciale, ci sono altre gravi questioni da considerare come bene, dice Constellation Research vice president e principal analyst di Steve Wilson.

CMU di ricerca “, ci mostra un sacco di nostre intuizioni su computerizzata oggetto di riconoscimento sono false”, dice. “Quando dico ‘intuizione,’ voglio dire che abbiamo imparato le nostre aspettative per l’intelligenza artificiale, guardando un film di fantascienza. Quello che abbiamo è un enorme insieme di tecnologie che sono ancora in evoluzione. C’è un urgente dibattito pubblico su ciò che significa tutto, dal self-driving cars di sicurezza in aeroporto, ma si basa su un’idea semplicistica di come le macchine a vedere”.

Oggi le reti neurali andare al di là di vecchi metodi di riconoscimento di oggetti — tagging, l’estrazione di caratteristiche e i colori, poi l’elaborazione delle informazioni per identificare i vari oggetti — Wilson note. Le reti neurali sono propagandato come il riflesso di come lavora il cervello umano, con la capacità di apprendere nel corso del tempo. Questo è ciò che rende CMU di ricerca così importante.

“CMU arriva e dice: siamo in grado di prendere una cosa come un paio di occhiali che non assomigliano a destinazione faccia e la rete neurale innesca un oggetto”, dice. “La rete neurale è attaccarsi al non evidenti. Si può ingannare, in modi che i laici non avrebbe mai previsto.”

Wilson punti per l’incidente di giugno, quando un uomo è diventato la prima persona a morire in un self-driving car incidente. La sua Tesla sistema di sensori è in grado di distinguere tra un rimorchio del trattore che attraversano la strada e il cielo luminoso, e l’auto ha guidato in esso ad alta velocità con risultati fatali. “Non sto dando la colpa reti neurali per se, ma mi preoccupa il fatto che questi nuovi sistemi di visione sono molto più difficili da analizzare e debug rispetto ai classici programmi per computer, ci si aspetta,” Wilson.

Le reti neurali sono visti come una componente chiave per raggiungere in auto-guida di auto di mercato e sulla strada in massa. La CMU la ricerca dovrebbe dare a coloro desiderosi di vedere questo accadere gravi pausa, e rendersi conto che è tempo per un più sofisticato pubblico conversazione su reti neurali.

“Se qualcuno viene ucciso [self-driving car] e il caso va in tribunale, si può ottenere un sistema di log e vedere quello che la macchina ha visto? Che potrebbe non essere possibile,” dice. “Credo che la politica credo che sia quel tipo di lavoro.”

“Le reti neurali non abbiamo una step-by-step dell’algoritmo e del registro di controllo”, ha aggiunto. “Non funziona così. Pensare alla Carnegie Mellon lavoro. E ‘ molto sorprendente che qualcosa che non ha l’aspetto di un volto può essere interpretato come una faccia. Una rete neurale auto alimentata a tutta velocità lungo la strada, che sa di cosa si sta vedendo? Pertanto, le persone che scrivono le leggi e discutere le possibilità necessità di avere più sfumata la discussione su come i cervelli artificiali di lavoro e come si potrebbe non riuscire.”

Wilson consiglia, almeno, che i casi di test per neurale machine vision cast molto di più. “Non è sufficiente per verificare in che modo autonomo macchina reagisce alla plastica di cani e di plastica dei bambini”, dice. “Ora dobbiamo capire che le reti neurali non sono alla ricerca di queste cose in modo esplicito. Essi potrebbero reagire a combinazioni di ingressi ottici ci sarebbe intuitivamente non pensare mai alla prova.”

24/7 di Accesso Costellazione Approfondimenti Iscriviti oggi per un accesso illimitato a analista esperto di opinioni su ultime notizie.