Facebook verontschuldigt zich voor een incident waarbij de AI een video van zwarte mannen verkeerd labelde met het label 'primaten' en het een 'onaanvaardbare fout' noemde die werd onderzocht om te voorkomen dat het opnieuw zou gebeuren. Zoals gemeld door de New York Times, ontvingen gebruikers die een video van 27 juni hadden bekeken die was gepost door de Britse tabloid Daily Mail, een automatische prompt met de vraag of ze “video's over primaten wilden blijven zien”.
Facebook heeft de hele functie voor het aanbevelen van onderwerpen uitgeschakeld zodra het zich realiseerde wat er aan de hand was, zei een woordvoerder zaterdag in een e-mail aan The Verge.
“Dit was duidelijk een onaanvaardbare fout”, zei de woordvoerder. Het bedrijf onderzoekt de oorzaak om herhaling van het gedrag te voorkomen, aldus de woordvoerder. “Zoals we al zeiden, hoewel we verbeteringen aan onze AI hebben aangebracht, weten we dat deze niet perfect is en dat we meer vooruitgang moeten boeken. We bieden onze excuses aan aan iedereen die deze aanstootgevende aanbevelingen heeft gezien.”
Het incident is slechts het nieuwste voorbeeld van kunstmatige-intelligentietools die gender- of raciale vooroordelen tonen, waarbij gezichtsherkenningstools een bijzonder probleem van het verkeerd identificeren van gekleurde mensen. In 2015 verontschuldigde Google zich nadat de Foto's-app foto's van zwarte mensen had getagd als 'gorilla's'. Vorig jaar zei Facebook dat het aan het onderzoeken was of zijn algoritmen die waren getraind met behulp van AI – inclusief die van Instagram, dat eigendom is van Facebook – raciaal vooringenomen waren.
In april waarschuwde de Amerikaanse Federal Trade Commission dat AI-tools die “verontrustende” raciale en gendervooroordelen hebben aangetoond, mogelijk in strijd zijn met de wetgeving inzake consumentenbescherming als ze worden gebruikt bij het nemen van beslissingen voor krediet, huisvesting of werk. “Houd jezelf verantwoordelijk – of wees klaar voor de FTC om het voor je te doen”, schreef FTC-privacyadvocaat Elisa Jillson in een bericht op de website van het bureau.