Facebook siger, at dets AI fejlmærkede en video af sorte mænd som “primater” var “uacceptabel”

0
85

Facebook undskylder for en hændelse, hvor dens AI fejlmærkede en video af sorte mænd med en “primater” -mærke og kaldte det en “uacceptabel fejl”, som den undersøgte for at forhindre det i at ske igen. Som rapporteret af New York Times modtog brugere, der så en video fra den 27. juni, der blev sendt af den britiske tabloid Daily Mail, en automatisk forespørgsel, der spurgte, om de ville “fortsætte med at se videoer om Primates.”

Facebook deaktiverede hele emneanbefalingsfunktionen, så snart den indså, hvad der skete, sagde en talsmand i en e -mail til The Verge lørdag.

“Dette var klart en uacceptabel fejl,” sagde talsmanden. Virksomheden undersøger årsagen til at forhindre adfærd i at ske igen, tilføjede talsmanden. “Som vi har sagt, mens vi har foretaget forbedringer af vores AI, ved vi, at det ikke er perfekt, og vi har flere fremskridt at gøre. Vi beklager alle, der måtte have set disse stødende anbefalinger. ”

Hændelsen er blot det seneste eksempel på kunstige intelligensværktøjer, der viser køn eller racemæssig skævhed, med ansigtsgenkendelsesværktøjer vist at have en særligt problem med at misidentificere farvefolk. I 2015 undskyldte Google, efter at dens Fotos -app havde mærket billeder af sorte mennesker som “gorillaer”. Sidste år sagde Facebook, at det studerede, om dets algoritmer, der var uddannet i AI – herunder Instagrams, som Facebook ejer – var racemodestagne.

I april advarede den amerikanske føderale handelskommission, at AI-værktøjer, der har påvist “bekymrende” racemæssige og kønsmæssige skævheder, kan være i strid med lovgivningen om forbrugerbeskyttelse, hvis de bruges til beslutningstagning til kredit, bolig eller beskæftigelse. “Hold dig ansvarlig – eller vær klar til, at FTC gør det for dig,” skrev FTC's privatlivsadvokat Elisa Jillson i et indlæg på agenturets websted.