Det er ingen reell AI -revolusjon uten etikk Se nå
Twitter har gitt ut en detaljert rapport om resultatene av den første algoritmiske skjevhetsutfordringen, og avslørte en rekke områder der det ble funnet at deres systemer og algoritmer manglet rettferdighet.
Twitter forpliktet seg til å redusere sin avhengighet av ML-basert bildebeskjæring, og det begynte å rulle ut endringene i mai 2021. En Twitter-talsmann fortalte ZDNet at det stort sett har eliminert saltholdighetsalgoritmen fra deres tjeneste. Men medlemmer av det etiske AI -hackersamfunnet klarte å finne andre problemer som en del av den algoritmiske skjevhetsutfordringen som ble holdt i sommer.
“Resultatene av funnene deres bekreftet vår hypotese: vi kan ikke løse disse utfordringene alene, og vår forståelse av skjevhet i AI kan forbedres når forskjellige stemmer kan bidra til samtalen,” Yee og Peradejordi skrev.
“Når man bygger maskinlæringssystemer, er det nesten umulig å forutse alle potensielle problemer og sikre at en modell vil tjene alle grupper mennesker på en likeverdig måte. Men utover det, når man designer produkter som tar automatiske beslutninger, kan det å opprettholde status quo ofte forsterke eksisterende kulturelle og sosiale skjevheter. ”
De to la til at skjevhetsutfordringen hjalp Twitter med å oppdage et bredt spekter av problemer på kort tid, og bemerket at den vinnende innsendelsen “brukte en kontrafaktisk tilnærming for å demonstrere at modellen har en tendens til å kode stereotypisk skjønnhet standarder, for eksempel en preferanse for slankere, yngre, feminine og lysere ansikter. ”
En annen innsending, som kom på andreplass i konkurransen, fant at Twitters algoritme for bilder med flere ansikter nesten aldri velger personer med hvitt hår som den mest fremtredende personen på bildet.
Tredjeplassvinneren undersøkte lingvistiske skjevheter på Twitter ved å vise forskjeller mellom hvordan nettstedet håndterer engelske memes og arabisk script memes.
Ytterligere to priser – en for mest nyskapende innsending og mest generaliserbar innsending – fokusert på hvordan Twitters modell foretrekker emojis med lysere hud og hvordan du kan unngå beskjæringsfunksjonen ved å legge polstring rundt et bilde.
Andre innspill viste hvordan Twitters maskinlæringssystem kan påvirke visse grupper som veteraner, religiøse grupper, funksjonshemmede, eldre og de som kommuniserer på ikke-vestlige språk.
“Ofte er samtalen om skjevhet i ML fokusert på rase og kjønn, men som vi så gjennom denne utfordringen, kan skjevhet ha mange former. Forskning i rettferdig maskinlæring har historisk fokusert på vestlige og USA-sentriske spørsmål, så vi var spesielt inspirert til å se flere innleveringer som fokuserte på problemer knyttet til det globale sør, “sa de to.
“Resultatene av dusør antyder at skjevheter ser ut til å være innebygd i kjernemodellen, og disse skjevhetene blir ofte lært av treningsdataene. Vår saliency-modell ble trent på menneskelige øyesporingsdata med åpen kildekode, noe som utgjør risikoen for å legge inn bevisst og bevisstløs Fordi saliency er en vanlig bildebehandlingsteknikk og disse datasettene er åpen kildekode, håper vi at andre som har brukt disse datasettene, kan dra nytte av innsikten fra bounty for å forbedre sine egne produkter. “
Twitter sa det vil inkorporere noen aspekter av konkurransen i sine egne interne prosesser.
Men i en uttalelse til ZDNet sa Twitter at målet med utfordringen “ikke var å identifisere ytterligere endringer vi må gjøre i produktet vårt”, men bare “å bringe sammen det etiske AI -hackersamfunnet, belønne dem for deres arbeid og utvide vårt forståelse for typer skader og utilsiktede konsekvenser denne typen modeller potensielt kan forårsake. “
“Det vi lærte gjennom bidragene fra denne utfordringen, vil imidlertid bidra til å informere om hvordan vi tenker om lignende spørsmål i fremtiden, og hvordan vi kan hjelpe andre team på Twitter med å bygge mer ansvarlige modeller,” sa Twitter -talspersonen.
Twitter forsvarte seg også ved å si at saliency -modellen de bruker er utbredt av andre selskaper, og de planlegger å publisere et papir om skjevheten.
På spørsmål om Twitter ville holde et annet skjevhetsprogram, sa talsmannen at de håper programmene “blir mer fellesskapsdrevne.” De oppfordret andre selskaper til å holde sine egne biasprogrammer.
“Denne utfordringen ble inspirert av lignende dusørprogrammer innen personvern- og sikkerhetsfeltet. Vi kan se verdien av fellesskapsdrevne tilnærminger til å forstå og dempe skjevhet i ML på tvers av en rekke applikasjoner for ethvert selskap som bruker maskinlæring for å ta automatiserte beslutninger, “sa Twitter -talsmannen. “Som vi delte i april, forsker vårt team for etikk, åpenhet og ansvarlighet (META) for tiden på ML -skjevhet på områder som anbefalingsmodeller.”
Artificial Intelligence
Hva er AI? Alt du trenger å vite om kunstig intelligens AI og data science jobber er varmt. Her er hva arbeidsgiverne ønsker De beste telepresence -robotene for å kjøpe AI blir smartere, raskere. Det skaper vanskelige spørsmål som vi ikke kan svare på AI -jobber blomstrer. Dette er ferdighetene du trenger for å bli ansatt (ZDNet YouTube) Artificial intelligence: Cheat sheet (TechRepublic)
Relaterte emner:
Artificial Intelligence Collaboration CXO Tech Industry Digital Transformation Smart Office