Det finns ingen verklig AI -revolution utan etik Se nu
Twitter har släppt en detaljerad rapport om resultaten av sin första algoritmiska bias -utmaning, som avslöjar ett antal områden där deras system och algoritmer visade sig saknas i rättvisa.
Twitter åtog sig att minska sitt beroende av ML-baserad bildskärning och det började rulla ut ändringarna i maj 2021. En Twitter-talesman sa till ZDNet att det mestadels har eliminerat salthetsalgoritmen från deras tjänst. Men medlemmar i den etiska AI -hackersamhället lyckades hitta andra frågor som en del av den algoritmiska bias -utmaningen som hölls i somras.
“Resultaten av deras fynd bekräftade vår hypotes: vi kan inte lösa dessa utmaningar ensam, och vår förståelse av partiskhet i AI kan förbättras när olika röster kan bidra till konversationen,” Yee och Peradejordi skrev.
“När man bygger maskininlärningssystem är det nästan omöjligt att förutse alla potentiella problem och se till att en modell kommer att tjäna alla grupper av människor på ett likvärdigt sätt. Men utöver det, när man designar produkter som fattar automatiska beslut, kan upprätthållandet av status quo ofta stärka befintliga kulturella och sociala fördomar. ”
De två tillade att bias bounty -utmaningen hjälpte Twitter att upptäcka ett brett spektrum av frågor på kort tid och noterade att den vinnande insändaren “använde ett kontrafaktiskt tillvägagångssätt för att visa att modellen tenderar att koda stereotyp skönhet standarder, till exempel en preferens för smalare, yngre, feminina och ljusare ansikten. ”
En annan anmälan, som kom på andra plats i tävlingen, fann att Twitters algoritm för bilder med flera ansikten nästan aldrig väljer personer med vitt hår som den mest framträdande personen på fotot.
Tredje platsvinnaren undersökte språkliga fördomar på Twitter genom att visa skillnader mellan hur webbplatsen hanterar engelska memes och arabiska script -memes.
Ytterligare två utmärkelser – en för mest innovativa inlämning och mest generaliserbara inlämning – fokuserade på hur Twitters modell föredrar emojis med ljusare hud och hur man kan undvika beskärningsfunktionen genom att lägga till vaddering runt en bild.
Andra inlägg visade hur Twitters maskininlärningssystem kan påverka vissa grupper som veteraner, religiösa grupper, personer med funktionsnedsättning, äldre och de som kommunicerar på icke-västerländska språk.
“Samtalet kring partiskhet i ML är ofta inriktat på ras och kön, men som vi såg genom denna utmaning kan fördomar ha många former. Forskning inom rättvist maskininlärning har historiskt fokuserat på västerländska och USA-centrerade frågor, så vi var särskilt inspirerade till att se flera bidrag som fokuserade på problem relaterade till Global South, “sa de två.
“Resultat av premien tyder på att fördomar tycks vara inbäddade i kärnmodellen och dessa fördomar lärs ofta av träningsdata. Vår salienmodell utbildades i öppen källkod för mänskliga ögonspårningsdata, vilket medför risk för inbäddning av medvetet och omedvetet Eftersom saliency är en vanligt förekommande bildbehandlingsteknik och dessa datamängder är öppen källkod, hoppas vi att andra som har använt dessa datamängder kan dra nytta av insikterna från bounty för att förbättra sina egna produkter. “
Twitter sade det kommer att införliva vissa aspekter av tävlingen i sina egna interna processer.
Men i ett uttalande till ZDNet sa Twitter att målet med utmaningen “inte var att identifiera ytterligare förändringar vi behöver göra i vår produkt” utan att helt enkelt “sammanföra det etiska AI -hackersamhället, belöna dem för deras arbete och bredda vår förståelse för vilka typer av skador och oavsiktliga konsekvenser denna typ av modell potentiellt kan orsaka. “
“Det vi lärde oss genom bidrag från denna utmaning kommer dock att hjälpa till att informera om hur vi tänker om liknande frågor i framtiden och hur vi hjälper till att utbilda andra team på Twitter om hur man bygger mer ansvarsfulla modeller”, sade Twitter -talespersonen.
Twitter försvarade sig också genom att säga att den överlägsenhet som de använder distribueras i stor utsträckning av andra företag, och de planerar att publicera ett papper om förspänningen.
På frågan om Twitter skulle hålla ett annat partiprogram, sa talesmannen att de hoppas att programmen “blir mer samhällsdrivna.” De uppmanade andra företag att hålla sina egna partiprogram.
“Denna utmaning inspirerades av liknande bounty-program inom sekretess- och säkerhetsområdet. Vi kan se värdet av samhällsdrivna tillvägagångssätt för att förstå och mildra fördomar i ML över en rad applikationer för alla företag som använder maskininlärning för att fatta automatiserade beslut, “sade Twitter -talesmannen. “Som vi delade i april forskar vårt ML -team för etik, transparens och ansvarighet (META) för närvarande om ML -fördomar inom områden som rekommendationsmodeller.”
Artificiell intelligens
Vad är AI? Allt du behöver veta om artificiell intelligens AI och datavetenskapsjobb är hett. Här är vad arbetsgivare vill De bästa telepresence -robotarna för att köpa AI blir smartare, snabbare. Det skapar knepiga frågor som vi inte kan svara på AI -jobb blomstrar. Det här är de färdigheter du behöver för att bli anställd (ZDNet YouTube) Artificiell intelligens: Fuskblad (TechRepublic)
Relaterade ämnen:
Artificiell intelligens Samarbete CXO Tech Industry Digital Transformation Smart Office