Google bruger en ny måde at måle hudfarver på for at gøre søgeresultaterne mere inkluderende

0
166

Google samarbejder med en Harvard-professor for at promovere en ny skala til måling af hudtoner med håb om at løse problemer med skævhed og diversitet i virksomhedens produkter.

Teknikgiganten arbejder sammen med Ellis Monk, en assisterende professor i sociologi ved Harvard og skaberen af ​​Monk Skin Tone-skalaen eller MST. MST-skalaen er designet til at erstatte forældede hudtoneskalaer, der er orienteret mod lysere hud. Når disse ældre skalaer bruges af teknologivirksomheder til at kategorisere hudfarve, kan det føre til produkter, der klarer sig dårligere for mennesker med mørkere farve, siger Monk.

“Medmindre vi har et tilstrækkeligt mål for forskelle i hudfarve, kan vi ikke rigtig integrere det i produkter for at sikre, at de er mere inkluderende,” siger Monk til The Verge. “Monk Skin Tone-skalaen er en 10-punkts hudtoneskala, der bevidst er designet til at være meget mere repræsentativ og inkludere en bredere vifte af forskellige hudtoner, især for mennesker [med] mørkere hudtoner.”

At rette skævhed i AI betyder ofte at rette træningsdata

Der er adskillige eksempler på teknologiske produkter, især dem, der bruger AI, der klarer sig dårligere med mørkere hudtoner. Disse inkluderer apps designet til at opdage hudkræft, ansigtsgenkendelsessoftware og endda maskinsynssystemer, der bruges af selvkørende biler.

Selvom der er mange måder, hvorpå denne slags bias er programmeret ind i disse systemer, er en fælles faktor brugen af ​​forældede hudtoneskalaer, når der indsamles træningsdata. Den mest populære hudtoneskala er Fitzpatrick skalaen, som er meget udbredt i både den akademiske verden og AI. Denne skala blev oprindeligt designet i 70'erne til at klassificere, hvordan mennesker med blegere hud brænder eller bliver solbrune i solen og blev først senere udvidet til at omfatte mørkere hud.

Dette har ført til en del kritik af, at Fitzpatrick-skalaen ikke formår at fange en hel række af hudtoner og kan betyde, at når maskinsynssoftware trænes på Fitzpatrick-data, er den også forudindtaget mod lysere hudtyper.

10-punkts Monk Skin Tone-skalaen. Billede: Ellis Monk/Google

Fitzpatrick-skalaen består af seks kategorier, men MST-skalaen udvider denne til 10 forskellige hudtoner. Monk siger, at dette nummer blev valgt baseret på hans egen forskning for at balancere mangfoldighed og brugervenlighed. Nogle hudtoneskalaer tilbyder mere end hundrede forskellige kategorier, siger han, men for mange valgmuligheder kan føre til inkonsistente resultater.

“Normalt, hvis du kom forbi 10 eller 12 point på disse typer skalaer [og] beder den samme person om gentagne gange at vælge de samme toner, jo mere du øger den skala, jo færre mennesker er i stand til at gøre det,” siger Monk . “Kognitivt set bliver det bare virkelig svært at skelne nøjagtigt og pålideligt.” Et valg mellem 10 hudfarver er meget mere overskueligt, siger han.

At skabe en ny hudtoneskala er dog kun et første skridt, og den virkelige udfordring er at integrere dette arbejde i applikationer i den virkelige verden. For at promovere MST-skalaen har Google oprettet et nyt websted, skintone.google, dedikeret til at forklare forskningen og bedste praksis for dets brug i kunstig intelligens. Virksomheden siger, at det også arbejder på at anvende MST-skalaen på en række af sine egne produkter. Disse inkluderer dets “Real Tone” fotofiltre, som er designet til at fungere bedre med mørkere hudtoner, og dets billedsøgeresultater.

1952thGoogle vil lade brugere forfine bestemte søgeresultater ved at bruge hudfarver valgt fra MST-skalaen. Billede: Google

Google siger, at det introducerer en ny funktion til billedsøgning, der vil lade brugere forfine søgninger baseret på hudfarver klassificeret efter MST-skalaen. Så hvis du for eksempel søger efter “øjenmakeup” eller “brudesminke-look”, kan du derefter filtrere resultaterne efter hudtone. I fremtiden planlægger virksomheden også at bruge MST-skalaen til at kontrollere mangfoldigheden af ​​dets resultater, så hvis du søger efter billeder af “søde babyer” eller “læger”, vil du ikke kun blive vist hvide ansigter.

“En af de ting, vi gør, er at tage et sæt [image]-resultater, forstå, hvornår disse resultater er særligt homogene på tværs af et par sæt toner, og forbedre mangfoldigheden af ​​resultaterne, ” Googles produktchef for ansvarlig AI, Tulsee Doshi, fortalte The Verge. Doshi understregede dog, at disse opdateringer var i et “meget tidligt” udviklingsstadium og endnu ikke var blevet rullet ud på tværs af virksomhedens tjenester.

Google eksperimenterer med at afbalancere billedsøgeresultater for at være mere inkluderende

Dette bør være en forsigtighed, ikke kun for denne specifikke ændring, men også for Googles tilgang til at løse problemer med bias i sine produkter mere generelt. Virksomheden har en broget historie, når det kommer til disse spørgsmål, og AI-industrien som helhed har en tendens til at love etiske retningslinjer og rækværk og derefter fejle på opfølgningen.

Tag for eksempel den berygtede Google Fotos-fejl, der førte til, at dens søgealgoritme mærkede billeder af sorte mennesker som “gorillaer” og “chimpanser”. Denne fejl blev først bemærket i 2015, men alligevel bekræftede Google til The Verge i denne uge, at det stadig ikke har løst problemet, men blot fjernet disse søgetermer helt. “Selvom vi har forbedret vores modeller markant baseret på feedback, er de stadig ikke perfekte,” sagde talsmand for Google Fotos, Michael Marconi, til The Verge. “For at forhindre denne type fejl og potentielt forårsage yderligere skade, forbliver søgetermerne deaktiveret.”

Introduktion af denne slags ændringer kan også være kulturelt og politisk udfordrende, hvilket afspejler bredere vanskeligheder i hvordan vi integrerer denne form for teknologi i samfundet. I tilfælde af filtrering af billedsøgeresultater bemærker Doshi for eksempel, at “diversitet” kan se anderledes ud i forskellige lande, og hvis Google justerer billedresultater baseret på hudfarve, kan det være nødvendigt at ændre disse resultater baseret på geografi.

“Hvad mangfoldighed betyder, for eksempel, når vi viser resultater i Indien [eller], når vi viser resultater i forskellige dele af verden, vil være iboende anderledes,” siger Doshi. “Det er svært nødvendigvis at sige, 'åh, det er præcis det sæt af gode resultater, vi ønsker', fordi det vil variere pr. bruger, pr. region, pr. forespørgsel.”

Introduktion af en ny og mere inkluderende skala til måling af hudtoner er et skridt fremad, men der er stadig langt mere vanskelige problemer, der involverer AI og bias.