Facebook sier at AI -merkingen av en video av svarte menn som “primater” var “uakseptabel”

0
122

Facebook beklager en hendelse der AI hadde feilmerket en video av svarte menn med en “primater” -etikett, og kalte det en “uakseptabel feil” som den undersøkte for å forhindre at det skulle skje igjen. Som rapportert av New York Times, mottok brukere som så på en video fra 27. juni som ble postet av den britiske tabloiden Daily Mail en automatisk melding om hvorvidt de ville “fortsette å se videoer om Primates.”

Facebook deaktiverte hele emneanbefalingsfunksjonen så snart den innså hva som skjedde, sa en talsperson i en e -post til The Verge lørdag.

“Dette var helt klart en uakseptabel feil,” sa talsmannen. Selskapet undersøker årsaken for å forhindre atferden skal skje igjen, la talsmannen til. “Som vi har sagt, mens vi har gjort forbedringer av vår AI, vet vi at den ikke er perfekt, og vi har flere fremskritt å gjøre. Vi beklager til alle som kan ha sett disse støtende anbefalingene. ”

Hendelsen er bare det siste eksemplet på kunstig intelligens -verktøy som viser kjønn eller rasemessig skjevhet, med ansiktsgjenkjenningsverktøy vist å ha en spesielt problem med feilidentifisering av farger. I 2015 ba Google om unnskyldning etter at Photos -appen merket bilder av svarte mennesker som “gorillaer”. I fjor sa Facebook at de studerte om algoritmene som ble opplært i AI – inkludert Instagram, som Facebook eier – var rasistisk.

I april advarte den amerikanske føderale handelskommisjonen om at AI-verktøy som har vist “urovekkende” rasemessige og kjønnsforstyrrelser kan være i strid med forbrukerlovgivningen hvis de brukes beslutningstaking for kreditt, bolig eller arbeid. “Hold deg ansvarlig – eller vær klar for FTC å gjøre det for deg,” skrev FTC personvernadvokat Elisa Jillson i et innlegg på byråets nettsted.