Der er ingen reel AI -revolution uden etik Se nu
Twitter har frigivet en detaljeret rapport om resultaterne af sin første algoritmiske bias -udfordring, der afslører en række områder, hvor deres systemer og algoritmer viste sig at have manglet retfærdighed.
Twitter forpligtede sig til at reducere sin afhængighed af ML-baseret billedbeskæring, og det begyndte at rulle ændringerne i maj 2021. En Twitter-talsmand fortalte ZDNet, at det for det meste har elimineret saltholdighedsalgoritmen fra deres service. Men medlemmer af det etiske AI -hackersamfund formåede at finde andre spørgsmål som en del af den algoritmiske skævhedspræmieudfordring, der blev afholdt i sommer.
“Resultaterne af deres fund bekræftede vores hypotese: vi kan ikke løse disse udfordringer alene, og vores forståelse af bias i AI kan forbedres, når forskellige stemmer er i stand til at bidrage til samtalen,” Yee og Peradejordi skrev.
“Når man bygger maskinlæringssystemer, er det næsten umuligt at forudse alle potentielle problemer og sikre, at en model vil tjene alle grupper af mennesker på lige måde. Men ud over det, når man designer produkter, der træffer automatiske beslutninger, fører opretholdelse af status quo ofte til at styrke eksisterende kulturelle og sociale fordomme. ”
De to tilføjede, at bias -dusørudfordringen hjalp Twitter med at opdage en lang række spørgsmål på kort tid og bemærkede, at den vindende indsendelse “brugte en kontrafaktisk tilgang til at demonstrere, at modellen har en tendens til at kode stereotypisk skønhed standarder, såsom en præference for slankere, yngre, feminine og lysere ansigter. ”
En anden indsendelse, der kom på andenpladsen i konkurrencen, fandt ud af, at Twitters algoritme til billeder med flere ansigter næsten aldrig vælger mennesker med hvidt hår som den mest fremtrædende person på billedet.
Vinderen på tredjepladsen undersøgte lingvistiske skævheder på Twitter ved at vise forskelle mellem, hvordan webstedet håndterer engelske memes og arabiske script -memes.
Yderligere to priser – en for mest innovative indsendelser og mest generaliserbare indsendelser – fokuserede på, hvordan Twitters model foretrækker emojis med lysere hud, og hvordan tilføjelse af polstring omkring et billede kan gøre det muligt at undgå beskæringsfunktionen.
Andre indlæg viste, hvordan Twitters maskinlæringssystem kan påvirke bestemte grupper som veteraner, religiøse grupper, handicappede, ældre og dem, der kommunikerer på ikke-vestlige sprog.
“Ofte er samtalen omkring bias i ML fokuseret på race og køn, men som vi så igennem denne udfordring, kan bias have mange former. Forskning i fair machine learning har historisk set fokuseret på vestlige og amerikansk-centrerede spørgsmål, så vi var især inspireret til at se flere indlæg, der fokuserede på problemer relateret til det globale syd, “sagde de to.
“Resultaterne af dusøren tyder på, at skævheder ser ud til at være indlejret i kernemodellen, og disse fordomme læres ofte af træningsdataene. Vores saliency-model blev trænet i open source menneskelige eye-tracking-data, hvilket udgør en risiko for at indlejre bevidst og ubevidst Fordi saliency er en almindeligt anvendt billedbehandlingsteknik, og disse datasæt er open source, håber vi, at andre, der har brugt disse datasæt, kan udnytte den indsigt, der kommer fra dusøren, til at forbedre deres egne produkter. “
Twitter sagde det vil inkorporere nogle aspekter af konkurrencen i sine egne interne processer.
Men i en erklæring til ZDNet sagde Twitter, at målet med udfordringen “ikke var at identificere yderligere ændringer, vi skal foretage i vores produkt”, men blot “at samle det etiske AI -hackersamfund, belønne dem for deres arbejde og udvide vores forståelse for typer af skader og utilsigtede konsekvenser, denne type model potentielt kan forårsage. “
“Det, vi lærte gennem indlægene fra denne udfordring, vil imidlertid hjælpe med at informere, hvordan vi tænker om lignende spørgsmål i fremtiden, og hvordan vi hjælper med at uddanne andre teams på Twitter om, hvordan man bygger mere ansvarlige modeller,” sagde Twitter -talsmanden.
Twitter forsvarede sig også ved at sige, at den salentmodel, de bruger, er bredt udbredt af andre virksomheder, og de planlægger at udgive et papir om bias.
På spørgsmålet om, hvorvidt Twitter ville holde et andet skævhedsprogram, sagde talsmanden, at de håber, at programmerne “bliver mere samfundsdrevne.” De opfordrede andre virksomheder til at holde deres egne skævhedsprogrammer.
“Denne udfordring blev inspireret af lignende dusørprogrammer inden for fortroligheds- og sikkerhedsområdet. Vi kan se værdien af samfundsdrevne tilgange til at forstå og afbøde bias i ML på tværs af en række applikationer for enhver virksomhed, der bruger maskinlæring til at træffe automatiserede beslutninger, “sagde Twitter -talsmanden. “Som vi delte i april, er vores ML Ethics, Transparency and Accountability (META) -team i gang med at undersøge ML -bias på områder som anbefalingsmodeller.”
Kunstig intelligens
Hvad er AI? Alt, hvad du har brug for at vide om kunstig intelligens -AI og data science -job, er varmt. Her er, hvad arbejdsgiverne ønsker De bedste telepresence -robotter til at købe AI'er bliver smartere, hurtigere. Det skaber vanskelige spørgsmål, som vi ikke kan besvare AI -job, blomstrer. Dette er de færdigheder, du skal bruge for at få ansat (ZDNet YouTube) Kunstig intelligens: Snydeblad (TechRepublic)
Relaterede emner:
Kunstig intelligens -samarbejde CXO Tech Industry Digital Transformation Smart Office