L’industria di tecnologia non hanno un piano per affrontare con bias nel riconoscimento facciale

0
135

Il riconoscimento facciale è di diventare parte del tessuto della vita quotidiana. Si potrebbe già utilizzare per accedere al tuo telefono o il computer, o autenticare i pagamenti con la tua banca. In Cina, dove la tecnologia è più comune, il tuo viso può essere utilizzato per acquistare fast food, o richiedere il tuo indennità di carta igienica in un bagno pubblico. E questo è per non parlare di come l’applicazione della legge le agenzie di tutto il mondo stanno sperimentando con il riconoscimento facciale come strumento di sorveglianza di massa.

Ma l’adozione diffusa di questa tecnologia nasconde i problemi strutturali di fondo, non ultimo il problema del bias. Da questo, i ricercatori significa che il software utilizzato per il viso l’identificazione, il riconoscimento o l’analisi comporta in modo differente in base all’età, al sesso e origine etnica di una persona è l’identificazione.

Uno studio pubblicato nel mese di febbraio da ricercatori del MIT Media Lab, che gli algoritmi di riconoscimento facciale, progettato da IBM, Microsoft, e la Faccia++ avuto tassi di errore fino al 35 per cento in più nel cercare di individuare il genere più scuro di pelle di donne rispetto al più leggeri di pelle di uomini. In questo modo, il bias in riconoscimento facciale minaccia di rafforzare i pregiudizi della società, che colpisce in modo sproporzionato le donne e le minoranze, potenzialmente di chiusura di fuori del mondo delle infrastrutture digitali, o infliggere cambiare la vita, i giudizi su di loro.

Abbiamo bisogno di tutta l’industria, test di precisione per il riconoscimento facciale

Questa è la brutta notizia. La notizia peggiore è che le aziende non hanno ancora un piano per risolvere questo problema. Anche se le singole imprese stanno affrontando i pregiudizi nei loro software, gli esperti dicono che non ci sono parametri di riferimento che avrebbe permesso al pubblico di tenere traccia di miglioramento in un settore in larga scala. E così, quando le imprese non ridurre i pregiudizi nei loro algoritmi (come Microsoft ha annunciato di aver il mese scorso), è difficile giudicare quanto sia significativo questo.

Chiara Garvie, associato presso la Georgetown Law Center sulla Privacy e la Tecnologia, ha detto a The Verge che molti credono è il momento di introdurre a livello di settore parametri di riferimento per la parzialità e la precisione: i test che misura quanto gli algoritmi di eseguire su diversi dati demografici, come l’età, il sesso, e il tono della pelle. “Penso che sarebbe incredibilmente utile”, dice Garvie. “In particolare per le aziende che saranno contraenti con la pubblica amministrazione.”

Il riconoscimento facciale è diventato più facile che mai per le aziende di utilizzare. Amazon Rekognition API è stato utilizzato da regno UNITO emittente Sky per identificare le celebrità al matrimonio reale nel mese di Maggio.

Credito: Sky news

Quali sono le aziende che fanno?

In un’indagine informale, Orlo contattato una dozzina di diverse aziende che vendono viso identificazione, il riconoscimento e l’analisi di algoritmi. Tutte le imprese che hanno risposto ha detto che erano a conoscenza del problema di bias, e la maggior parte ha detto che stavano facendo del loro meglio per ridurre in loro sistemi. Ma nessuno ha voluto condividere dati dettagliati sul loro lavoro, o rivelare la loro metriche interne. Se si utilizzano regolarmente un viso di un algoritmo di riconoscimento, non ti piacerebbe sapere se in modo coerente esegue peggio per il sesso o il tono della pelle?

Google, che vende solo algoritmi che consentono di rilevare la presenza di volti, non la loro identità, ha detto: “facciamo il test per la parzialità e siamo continuamente alla prova i nostri modelli sottostanti, nel tentativo di rendere loro meno di parte e più equo. Non abbiamo ulteriori dettagli per condividere intorno a questo tempo.”

Microsoft ha sottolineato la sua recenti miglioramenti, tra cui per il suo genere, il software di riconoscimento, che ora ha un tasso di errore pari all ‘ 1,9% dalla pelle scura donne (il 20,8 per cento). La società non offrono un commento ufficiale, ma punta a luglio post di blog dal suo chief legal officer, Brad Smith. Nel post, Smith ha detto che era il momento per il governo di regolamentare l’utilizzo di sistemi di riconoscimento facciale, se non la sua distribuzione da parte di imprese private. Tra cui, forse, impostare il minimo di precisione standard.

Alcuni di tech più grandi aziende il supporto di parametri di riferimento e di regolamento

Inoltre, IBM ha evidenziato i recenti miglioramenti, così come la sua uscita, lo scorso mese di diversi set di dati per la formazione di sistemi di riconoscimento facciale, cura per combattere i pregiudizi. Ruchir Puri, chief architect di IBM Watson, ha detto a Il Punto in giugno che l’azienda fosse interessato a contribuire alla creazione di precisione dei parametri di riferimento. “Non ci dovrebbe essere matrici, grazie al quale molti di questi sistemi dovrebbero essere giudicati”, ha detto Puri. “Ma che a giudicare dovrebbe essere fatto dalla comunità, e non da un giocatore in particolare.”

Amazon, inoltre, non ha risposto alle domande, ma ci ha indicato dichiarazioni che ha rilasciato all’inizio di quest’anno dopo essere stato criticato dalla ACLU per la vendita di riconoscimento facciale per l’applicazione della legge. (ACLU fatto critiche simili oggi: testato la società di software di riconoscimento facciale per identificare le immagini di membri del Congresso, e ha trovato che essi erroneamente associato 28 persone penale foto segnaletiche.)

Amazon dice che ritira l’accesso dei clienti ai suoi algoritmi sono utilizzati illegalmente per discriminare o violare il diritto dei cittadini alla privacy, ma non fa menzione alcuna forma di controllo. La società ha detto che Il Punto era il lavoro di team internamente per verificare e rimuovere i pregiudizi dai propri sistemi, ma non condividere qualsiasi tipo di informazione. Questo è notevole considerando Amazon continua a vendere i suoi algoritmi di agenzie di applicazione di legge.

Dell’impresa venditori Punto si avvicinò, alcuni non offrono una risposta diretta a tutti, compresi FaceFirst, Gemalto, e NEC. Altri, come Cognitec, un’azienda tedesca che vende gli algoritmi di riconoscimento facciale per l’applicazione della legge e di confine agenzie di tutto il mondo, ammesso che evitare il bias è fisso, senza diritto di dati.

“Le basi di dati disponibili sono spesso di parte,” Cognitec marketing manager, Elke Oberg, ha detto a The Verge. “Potrebbero essere solo dei “bianchi” perché qualunque sia il provider aveva disponibili come modelli.” Oberg dice Cognitec fa del suo meglio per allenarsi su dati diversi, ma dice che le forze di mercato estirpare male algoritmi. “Tutti i fornitori sono [il problema] perché il pubblico è a conoscenza di esso,” ha detto. “E penso che se si vuole sopravvivere come un produttore sarà sicuramente bisogno di addestrare il vostro algoritmo altamente diversificata di dati”.

Miami Int’l Airport To Use Facial Recognition Technology At Passport Control

Il riconoscimento facciale è comunemente utilizzato presso il confine, anche se in questo ambiente è più facile non fare errori.

Foto: Raedle/Getty Images

Come possiamo affrontare il problema del bias?

Queste risposte mostrano che, sebbene ci sia la consapevolezza del problema del bias, non c’è risposta coordinata. Quindi cosa fare? La soluzione per la maggior parte degli esperti suggeriscono è concettualmente semplice, ma difficile da implementare: creare a livello di settore test per la precisione e pregiudizi.

La cosa interessante è che tale prova, esiste già, in un certo senso. Si chiama FRVT (Riconoscimento del Volto Prova del Venditore) ed è amministrato dal National Institute of Standards and Technology, o NIST. Si verifica l’esattezza di decine di sistemi di riconoscimento facciale in diversi scenari, come corrispondente di un passaporto con la foto di una persona in piedi un border gate, o corrispondenti facce da CCTV footage foto segnaletiche in un database. E le prove, i differenziali demografici” — come algoritmi di eseguire in base a sesso, età e razza.

Tuttavia, il FRVT è del tutto volontaria, e le organizzazioni che inviano i loro algoritmi tendono ad essere i fornitori di impresa cercando di vendere i loro servizi, il governo federale, o accademici, di sperimentazione di nuovi modelli sperimentali. Le piccole imprese come NEC e Gemalto presentare i loro algoritmi, ma nessuno dei grandi commerciali di aziende di tecnologia.

Garvie suggerisce che, piuttosto che la creazione di nuovi test per il riconoscimento facciale precisione, potrebbe essere una buona idea per espandere la portata del FRVT. “Il NIST non un lavoro ammirevole nel condurre questi test”, dice Garvie. “[Ma] inoltre, le risorse sono limitate. Ho il sospetto che ci sarebbe bisogno di una legislazione federale o di finanziamento per il sostegno di aumentare la capacità del NIST per testare altre aziende.” Un’altra sfida è che la profonda algoritmi di apprendimento distribuito da artisti del calibro di Amazon e Microsoft non possono essere facilmente inviati per l’analisi. Sono enormi pezzi di costante aggiornamento software; molto diverso da vecchi sistemi di riconoscimento facciale, che di solito può stare su un singolo disco.

“Noi non facciamo regolamento, non facciamo politica. Si producono solo numeri”.

Parlando a The Verge, il NIST biometrici standard e test di portare Patrick Grother chiarito che l’organizzazione attuale ruolo non è di regolamentazione. “Noi non facciamo regolamento, non facciamo politica. Si producono solo numeri”, dice Grother. Il NIST è stato testato l’accuratezza di algoritmi di riconoscimento facciale per quasi 20 anni, e sta attualmente preparando una relazione in particolare affrontare il tema del pregiudizio, in scadenza a fine anno.

Grother dice che anche se ci sono stati“, con notevoli riduzioni di errori” dal NIST ha iniziato le prove, ci sono ancora grandi disparità tra le prestazioni degli algoritmi diversi. “Non tutti possono fare il riconoscimento facciale, ma un sacco di persone che non sanno”, dice.

Grother dice che la recente discussione di pregiudizi spesso confonde diversi tipi di problemi. Egli sottolinea che, sebbene la mancanza di diversità nella formazione di set di dati può creare pregiudizi, così anche male la fotografia del soggetto, soprattutto se il loro tono della pelle non è esposta correttamente. Allo stesso modo, diversi tipi di errori che dire di più se applicato a diversi tipi di attività. Tutte queste sottigliezze avrebbe bisogno di essere considerati per qualsiasi parametro di riferimento o del regolamento.

In Cina, la polizia ha iniziato a utilizzare occhiali da sole con built-in di riconoscimento facciale per identificare i criminali.

Credito: AFP/Getty Images

Il Bias non è l’unico problema

Ma la discussione su bias invita altre domande sulla società di utilizzare il riconoscimento facciale. Perché preoccuparsi per la precisione di questi strumenti quando il problema più grande è se o non saranno utilizzate per la sorveglianza del governo e di mira le minoranze?

Gioia Buolamwini, AI scienziato che ha co-autore del MIT di studio su diversi tassi di accuratezza in genere identificazione di algoritmi, detto Punto per e-mail la fissazione di bias, da solo, non pienamente affrontare queste tematiche. “Che cosa c’è di buono sviluppare il viso la tecnologia di analisi che è quindi un’arma?” dice Buolamwini. “Un approccio più completo che tratta i problemi con il viso di analisi tecnica come un sociotechnical problema è necessario. Le considerazioni tecniche non possono essere disgiunte dai risvolti sociali.”

Buolamwini e alcuni altri della IA comunità sta assumendo un atteggiamento proattivo su questi temi. Brian Brackeen, CEO di riconoscimento facciale fornitore di Kairos, ha recentemente annunciato che la sua azienda avrebbe non vendere sistemi di riconoscimento facciale per l’applicazione della legge a tutti a causa della possibilità di un uso scorretto.

“Le considerazioni tecniche non possono essere disgiunte dai risvolti sociali.”

Parlando a The Verge, Brackeen dice che quando si tratta di distribuzione commerciale di riconoscimento facciale, le forze di mercato contribuirebbe ad eliminare polarizzato algoritmi. Ma, dice, quando questi strumenti vengono utilizzati dal governo, la posta in gioco è molto più alta. Questo perché le agenzie federali hanno accesso a molte più dati, aumentando la possibilità di questi sistemi sono stati utilizzati per soppressiva di sorveglianza. (Si stima che il governo detiene il viso di dati per la metà del paese popolazione adulta.) Allo stesso modo, le decisioni prese dal governo utilizzo di questi algoritmi hanno un maggiore impatto sulla vita dei singoli individui.

“Il caso d’uso [per l’applicazione della legge] non è solo una macchina sulla strada; è il corpo di telecamere, foto segnaletiche, line-up,” dice Brackeen. Se il bias è un fattore in questi scenari, egli dice, allora “si ha una maggiore possibilità per una persona di colore accusato ingiustamente di un crimine.”

Discussione su bias, quindi, sembra che sarà solo l’inizio di una molto più grande dibattito. Come Buolamwini dice, i parametri di riferimento possono fare la loro parte, ma è necessario fare di più: “le Imprese, i ricercatori e gli studiosi lo sviluppo di tali strumenti devono assumersi la responsabilità per l’immissione contesto limitazioni sui sistemi si sviluppano, se vuoi per mitigare i danni.”