Når algoritmer gå galt vi trenger mer kraft til å kjempe tilbake, sier AI forskere

0
128

Regjeringer og private selskaper er distribusjon av systemer for kunstig INTELLIGENS i et hurtig tempo, men det offentlige mangler verktøy til å holde disse systemene ansvarlige når de mislykkes. Det er en av de viktigste konklusjonene i en ny rapport utgitt av AI Nå, en forskningsgruppe hjem til ansatte fra tech selskaper som Microsoft og Google, og er tilknyttet New York University.

Rapporten undersøker den sosiale utfordringer av AI og algoritmisk systemer, homing inn på det forskerne kaller “ansvarlighet gap” som denne teknologien er integrert “på tvers core sosiale domener.” De legger fram ti anbefalinger, inkludert ringer for offentlig regulering av ansikts gjenkjenning (noe Microsoft president Brad Smith også tatt til orde for denne uken) og “sannheten-i-reklame” lover for AI produkter, slik at selskaper kan ikke bare handle på omdømme av teknologi for å selge sine tjenester.

Store tech selskaper har funnet seg i en AI gold rush, lading til et bredt spekter av markeder fra rekruttering til helse-å selge sine tjenester. Men, som AI Nå co-grunnlegger Meredith Whittaker, leder av Google ‘ s Open Research Group, forteller Randen, “mange av sine krav om nytte og verktøyet er ikke støttet av offentlig tilgjengelig vitenskapelig dokumentasjon.”

Whittaker gir eksempel på IBMS Watson-system, som under rettssaken diagnoser på Memorial Sloan Kettering Cancer Center, ga “usikre og feil behandling, anbefalinger, ifølge lekket interne dokumenter. “Påstander om at deres markedsføring avdeling hadde gjort om [deres teknologi er] nær-magiske egenskaper ble aldri bekreftet av peer-reviewed forskning,” sier Whittaker.

2018 har vært et år med “gjennomgripende skandaler” for AI

Forfatterne av AI Nå er rapporten at denne hendelsen er bare en av en rekke “gjennomgripende skandaler” som involverer AI og algoritmisk systemer utplassert ved regjeringer og store tech selskaper i 2018. Andre rekke fra beskyldninger om at Facebook bidratt til rette for folkemord i Myanmar, den åpenbaring som Google er å bidra til å bygge AI verktøy for droner for det militære som en del av Prosjektet Maven, og Cambridge Analytica skandale.

I alle disse tilfellene har det vært offentlig ramaskrik, samt intern uenighet i Silicon Valley mest verdifulle selskaper. Året så Google-ansatte å slutte over selskapets Pentagon kontrakter, Microsoft ansatte å presse selskapet til å slutte å jobbe med Immigration and Customs Enforcement (ICE), og ansatt walkouts fra Google, Uber, eBay, og Airbnb protesterte problemer med seksuell trakassering.

Whittaker sier disse protester, støttet av arbeidskraft allianser og forskning initiativer som AI Nå sin egen, har blitt “en uventet og gledelig kraft for offentlig ansvarlighet.”

US Conducts Air War Against ISIL From Secret Base In Persian Gulf Region

Dette året så omfattende protester mot bruk av AI, inkludert Google ‘ s engasjement i bygningen drone overvåking teknologi.

Foto: John Moore/Getty Images

Men rapporten er klar: det offentlige har behov for mer. Faren til kommunal rettferdighet er spesielt tydelig når det kommer til adopsjon av automatiserte beslutningen systemer (ANNONSER) av regjeringen. Disse inkluderer algoritmer som brukes for beregning av fengselsstraff og tildeling medisinsk hjelp. Vanligvis, sier rapportens forfattere, programvare er introdusert i disse domenene, med den hensikt å kutte kostnader og øke effektiviteten. Men at resultatet er ofte systemer for å ta beslutninger som ikke kan forklares eller anket.

AI Nå er rapporten nevner en rekke eksempler på, blant annet at av Tammy Dobbs, en Arkansas bosatt med cerebral parese som hadde henne Medicaid-levert hjem bekymre kuttet fra 56 timer 32 timer i uken uten forklaring. Rettshjelp hell saksøkt Staten Arkansas og algoritmisk tildeling systemet ble vurdert å være grunnlovsstridig.

Whittaker og andre AI Nå co-grunnlegger Kate Crawford, en forsker på Microsoft, sier integrering av ANNONSER til offentlige tjenester har outpaced vår evne til å granske disse systemene. Men, som de sier, det er konkrete tiltak som kan iverksettes for å bøte på dette. Disse inkluderer krever teknologi leverandører som selger tjenester til regjeringen om å avstå fra handel hemmelighold beskyttelse, og dermed muliggjøre forskere til å bedre undersøke sine algoritmer.

“Hvis vi ønsker offentlig ansvar vi har for å være i stand til å granske denne teknologien.”

“Du må være i stand til å si,” du har vært avskåret fra Medicaid, her er hvorfor, og du kan ikke gjøre det med black box-systemer”, sier Crawford. “Hvis vi ønsker offentlig ansvar vi har for å være i stand til å granske denne teknologien.”

Et annet område der det er nødvendig å iverksette tiltak umiddelbart, sier paret, er bruk av ansiktsgjenkjenning og påvirke anerkjennelse. Den tidligere økende grad blir brukt av politiet, i Kina, USA og Europa. Amazon er Rekognition programvare, for eksempel, har blitt distribuert av politiet i Orlando og Washington County, selv om tester har vist at programvaren kan utføre forskjellig på tvers av ulike raser. I en test der Rekognition ble brukt for å identifisere medlemmer av Kongressen hadde en feil i pris på 39 prosent for ikke-hvite medlemmer i forhold til bare fem prosent for hvit medlemmer. Og for å påvirke anerkjennelse, der selskapene hevder teknologi kan skanne noens ansikt og lese deres karakter og selv hensikt, AI Nå er forfatterne si selskaper er ofte peddling pseudovitenskap.

Til tross for disse utfordringene, skjønt, Whittaker og Crawford si at 2018 har vist at når problemer av AI ansvarlighet og bias er brakt frem i lyset, tech ansatte, lovgivere, og det offentlige er villig til å handle heller enn å føye seg.

Med hensyn til algoritmisk skandaler inkubert ved Silicon Valley ‘ s største selskaper, Crawford sier: “Deres” flytt raskt og bryte ting’ ideologi har brutt en rekke ting som er ganske viktig for oss, og akkurat nå er vi nødt til å begynne å tenke på det som har allmenn interesse.”

Sier Whittaker: “Hva du ser er folk våkne opp til motsetninger mellom cyber-utopiske tech retorikk og realitet implikasjoner av disse teknologiene som de er brukt i det daglige liv.”