Kunstig intelligens gjenspeiler verden rundt oss, og det er en utfordring

0
141

Joe McKendrick Skrevet av Joe McKendrick, bidragsyter Joe McKendrick Joe McKendrick Bidragsyter

Joe McKendrick er en forfatter og uavhengig analytiker som sporer innvirkningen av informasjonsteknologi på ledelse og markeder. Joe er medforfatter, sammen med 16 ledende industriledere og tenkere, av SOA-manifestet, som skisserer verdiene og veiledende prinsippene for tjenesteorientering.

Full Bio Posted in Service Oriented 7. januar 2022 | Emne: Kunstig intelligens

Utviklere og dataforskere er selvfølgelig mennesker, men systemene de lager er det ikke – de er bare kodebaserte refleksjoner av menneskelig resonnement som går inn i dem. Å få kunstige intelligenssystemer til å levere rettferdige og objektive resultater, samt sikre de riktige forretningsbeslutningene, krever en helhetlig tilnærming som involverer det meste av virksomheten. IT-ansatte og dataforskere kan ikke – og bør ikke – forventes å være solo-aktører når det kommer til AI.

buildings-with-rose-new-york-city-march-2021-photo-by-joe-mckendrick.jpg

Foto: Joe McKendrick

Det er et økende press for å utvide AI utover testbedene og grensene for systemutvikling og inn i forretningspakken. For eksempel, på et nylig panel på AI Summit, som ble holdt i New York i desember 2021, var paneldeltakerne enige om at bedriftsledere og ledere ikke bare må stille spørsmål ved kvaliteten på beslutninger levert gjennom AI, men også involvere seg mer aktivt i formuleringen deres. (Jeg var medleder for konferansen og modererte panelet.)  Det må være systemiserte måter å åpne opp AI-utviklings- og modelleringsprosessen på, sa Rod Butters, teknologisjef for Aible. “Når vi forteller dataforskere gå ut og lage en modell, ber vi dem om å være en tankeleser og en spåkone,” sa han. “Dataforskeren prøver å gjøre det rette, å lage en ansvarlig og solid modell, men basert på hva? Til syvende og sist når de bygger en modell, med mindre de har denne kombinasjonen for å skape åpenhet, skape utvidelsesmuligheter, faktisk kommunisere det til næringslivet valgkrets både på en strategisk og taktisk, hvem har ansvaret? Bare det å lage en flott modell løser ikke nødvendigvis alle problemer.”

Så hvordan retter vi opp situasjonen Butters beskriver, og adresserer potensielle skjevheter eller unøyaktigheter? Det er klart at dette er en utfordring som må løses på tvers av bedriftslederspekteret. IT, som til nå har båret mesteparten av AI-vekten, kan ikke gjøre det alene. Eksperter over hele bransjen oppfordrer til å åpne opp AI-utvikling for mer menneskelig engasjement. “Å legge byrden på IT-ledere og ansatte er å feilaktig generalisere et sett av betydelige, organisasjonsomfattende etiske, omdømme- og juridiske spørsmål for et teknisk problem,” sier Reid Blackman, administrerende direktør i Virtue og rådgiver for Bizconnect. “Bias i AI er ikke bare et teknisk problem, det er flettet sammen på tvers av avdelinger.”

Til dags dato har det ikke blitt gjort nok for å bekjempe AI-bias, fortsetter Blackman. “Til tross for oppmerksomheten på partiske algoritmer, har innsatsen for å løse dette vært ganske minimal. Standardtilnærmingen – bortsett fra å gjøre ingenting, selvfølgelig – er å bruke en rekke verktøy som ser hvordan diverse varer og tjenester er fordelt på flere underpopulasjoner, mest merkbart inkludert grupper relatert til rase og kjønn; eller bruke en rekke kvantitative beregninger for å avgjøre om fordelingen er rettferdig eller partisk.”

Å eliminere skjevheter og unøyaktigheter i AI tar tid. “De fleste organisasjoner forstår at suksessen til AI avhenger av å etablere tillit hos sluttbrukerne av disse systemene, noe som til slutt krever rettferdige og objektive AI-algoritmer,” sier Peter Oggel, CTO og senior visepresident for teknologidrift i Irdeto. Å levere på dette er imidlertid mye mer komplisert enn bare å erkjenne at problemet eksisterer og snakke om det.” 

Mer handling er nødvendig utover grensene til datasentre eller analytikernettsteder. “Dataforskere mangler opplæringen, erfaringen , og virksomheten må finne ut hvilke av de inkompatible beregningene for rettferdighet som er passende,” sier Blackman. “Dessverre mangler de ofte innflytelse til å løfte bekymringene sine til kunnskapsrike toppledere eller relevante fageksperter.”

Det er på tide å gjøre mer “for å vurdere disse resultatene ikke bare når et produkt er live, men under testing og etter ethvert betydelig prosjekt,” sier Patrick Finn, president og daglig leder for Americas hos Blue Prism. “De må også lære opp både tekniske og forretningsmessige ansatte i hvordan de kan lindre skjevheter innen AI, og i deres menneskelige team, for å gi dem mulighet til å delta i å forbedre organisasjonens AI-bruk. Det er både en ovenfra-og-ned- og nedenfra-opp-innsats drevet ved menneskelig oppfinnsomhet: fjern åpenbare skjevheter slik at AI ikke inkorporerer det og derfor ikke bremser arbeidet eller forverrer noens resultater.De som ikke tenker rettferdig om AI, bruker det ikke på riktig måte. ”

Å løse denne utfordringen “krever mer enn å validere AI-systemer mot et par beregninger,” sier Oggel. “Hvis du tenker på det, hvordan definerer man til og med begrepet rettferdighet? Ethvert gitt problem kan ha flere synspunkter, hver med en annen definisjon av hva som anses som rettferdig. Teknisk sett er det mulig å beregne beregninger for datasett og algoritmer som si noe om rettferdighet, men hva skal det måles mot?”

Det kreves mer investeringer “for å forske på skjevheter og forstå hvordan man kan eliminere det fra AI-systemer. Resultatet av denne forskningen må innlemmes i et rammeverk av standarder, retningslinjer, retningslinjer og beste praksis som organisasjoner kan følge. Uten klare svar på disse og mange flere spørsmål, vil bedriftens innsats for å eliminere skjevhet slite,” sier Oggle.

AI-bias er ofte «utilsiktet og underbevisst», sier han. “Å gjøre ansatte oppmerksomme på problemet vil bidra til å håndtere skjevheter, men like viktig er å sikre at du har mangfold i datavitenskap og ingeniørteam, gi klare retningslinjer og sikre riktig tilsyn.”

Mens det tar tid å åpne opp prosjekter og prioriteringer for virksomheten, er det kortsiktige tiltak som kan gjøres på utviklings- og implementeringsnivå? Harish Doddi, administrerende direktør i Datatron, anbefaler å stille følgende spørsmål etter hvert som AI-modeller utvikles: 

Hvordan var de tidligere versjonene? Hvilke inputvariabler kommer inn i modellen? Hva er utdatavariablene? Hvem har tilgang til modellen? Har det vært uautorisert tilgang? Hvordan oppfører modellen seg når det gjelder visse beregninger?

Under utviklingen er “maskinlæringsmodeller bundet av visse antakelser, regler og forventninger” som kan resultere i forskjellige resultater når de først er satt i produksjon, forklarer Doddi. “Det er her styring er kritisk.” En del av denne styringen er en katalog for å holde styr på alle versjoner av modeller. “Katalogen må kunne holde oversikt og dokumentere rammeverket der modellene utvikles, og deres avstamning.”

Bedrifter “må bedre sikre at kommersielle hensyn ikke veier tyngre enn etiske hensyn. Dette er ikke en enkel balansegang,” sier Oggle. “Noen tilnærminger inkluderer automatisk overvåking av hvordan modellatferd endres over tid på et fast sett med prototypiske datapunkter. Dette hjelper med å sjekke at modellene oppfører seg på en forventet måte og overholder noen begrensninger rundt sunn fornuft og kjente risikoer for skjevhet. I tillegg, regelmessig utføre manuelle kontroller av dataeksempler for å se hvordan en modells prediksjoner stemmer overens med det vi forventer eller håper å oppnå, kan bidra til å oppdage nye og uventede problemer.”

Enterprise Software | Digital transformasjon | CXO | Internet of Things | Innovasjon | Smarte byer