Som ansigtsgenkendelse-systemer bliver mere og mere almindelige, Amazon har vist sig som en frontløber på området, tiltrukket kunder omkring OS, herunder politiet og Immigration and Customs Enforcement (ICE). Men eksperter siger, at virksomheden er ikke at gøre nok til at dæmpe en frygt for en bias i sine algoritmer, især når det kommer til performance på ansigter med mørkere hud.
Den seneste årsag til bekymring, er en undersøgelse offentliggjort i denne uge af MIT Media Lab, som fandt, at Rekognition udført værre, når at identificere en persons køn, hvis de var kvinde eller mørkere i huden. I tests led ved MIT ‘ s Glæde Buolamwini, Rekognition lavede ingen fejl i forbindelse med identifikationen af køn lysere i huden mænd, men det forvekslede kvinder mænd 19 procent af tiden, og forvekslede mørkere i huden kvinder til mænd 31 procent af tiden.
Undersøgelsen følger forskning Buolamwini gennemført i februar sidste år, hvor der blev fundet lignende racemæssige og kønsmæssige skævheder i ansigtet analyse software bygget af Microsoft, IBM, og Kinesisk firma Megvii. Kort efter Buolamwini fælles hendes resultater, Microsoft og IBM begge sagde, at de ville forbedre deres software. Og, som denne seneste undersøgelse fandt, at de gjorde netop det.
Siden sidste februar, en række tech-virksomheder har givet udtryk for bekymring over problemer med facial anerkendelse. Som bias i algoritmer er ofte resultatet af en forudindtaget træning data, IBM offentliggjort en kurateret datasæt sagde det ville øge nøjagtigheden. Microsoft er gået endnu videre og kræver regulering af teknologi til at sikre højere standarder, således at markedet ikke bliver et “race to the bottom.”
Læs mere: HVORDAN SKAL VI REGULERE FACIAL ANERKENDELSE?
Amazon, ved sammenligning, har kun gjort lidt for at engagere sig i denne debat. Virksomheden har også nægtet, at denne seneste forskning foreslog noget om nøjagtigheden af sin teknologi. Det bemærkes, at forskerne ikke havde testet den nyeste version af Rekognition, og kønsidentitet test var facial analyse (som pletter udtryk og karakteristika, ligesom facial hår), ikke facial identifikation (som matcher scannet ansigter til mugshots).
Disse er to adskilte software-pakker, siger Amazon. “Det er ikke muligt at drage en konklusion på nøjagtigheden af facial anerkendelse for enhver use case — herunder retshåndhævende — baseret på resultater, der er opnået ved hjælp af ansigtet analyse,” Matt Træ, general manager for dyb læring og AI på Amazon Web Services, fortalte New York Times.
Ikke desto mindre, tidligere forskning har fundet lignende problemer i Amazon ‘ s facial identifikation software. En test sidste år foretaget af ACLU fandt, at mens scanning af billeder af medlemmerne af Kongressen, Rekognition fejlagtigt matchede 28 personer med politiet mugshots. Amazon skylden resultaterne på dårlig kalibrering af algoritmen.
Selv om bias i facial recognition systemer er blevet et samlingspunkt for eksperter og forskere, der er bekymrede for, om algoritmisk retfærdighed, mange advarer om, at det bør ikke overskygge de mere overordnede spørgsmål. Som Buolamwini og co-forfatter Inioluwa Deborah Raji bemærk i deres seneste papir, bare fordi en facial anerkendelse systemet fungerer lige så godt på forskellige hudfarver, det betyder ikke stoppe det fra at være et redskab for uretfærdighed eller undertrykkelse.
Parret skriver: “muligheden for weaponization og misbrug af facial analyse-teknologier, som ikke kan ignoreres eller trusler mod privatlivets fred eller brud på borgernes rettigheder faldet, selv som nøjagtighed forskelle fald.”