Skrevet af Joe McKendrick, bidragyder
Joe McKendrick Bidragyder
Joe McKendrick er en forfatter og uafhængig analytiker, der sporer informationsteknologiens indvirkning på ledelse og markeder. Joe er medforfatter, sammen med 16 førende industriledere og tænkere, af SOA-manifestet, som skitserer værdierne og de vejledende principper for serviceorientering.
Fuldstændig biografi Udgivet i Service Oriented den 7. januar 2022 | Emne: Kunstig intelligens
Udviklere og dataforskere er selvfølgelig mennesker, men de systemer, de skaber, er det ikke – de er blot kodebaserede afspejlinger af den menneskelige ræsonnement, der indgår i dem. At få kunstige intelligenssystemer til at levere objektive resultater og sikre smarte forretningsbeslutninger kræver en holistisk tilgang, der involverer det meste af virksomheden.
At eliminere skævhed og unøjagtigheder i AI tager tid. “De fleste organisationer forstår, at succesen med AI afhænger af at skabe tillid til slutbrugerne af disse systemer, hvilket i sidste ende kræver fair og upartiske AI-algoritmer,” siger Peter Oggel, CTO og senior vice president for teknologidrift hos Irdeto. Men at levere på dette er meget mere kompliceret end blot at erkende problemet eksisterer og tale om det.”
Der kræves mere handling ud over grænserne for datacentre eller analytikerwebsteder. “Dataforskere mangler uddannelse, erfaring og forretningsbehov til at afgøre, hvilke af de inkompatible metrics for retfærdighed der er passende,” siger Blackman. “Desuden mangler de ofte gennemslagskraft til at løfte deres bekymringer til kyndige ledende medarbejdere eller relevante fageksperter.”
Det er tid til at gøre mere “for at gennemgå disse resultater, ikke kun når et produkt er live, men under test og efter ethvert væsentligt projekt,” siger Patrick Finn, præsident og general manager for Americas hos Blue Prism. “De skal også træne både teknisk og forretningsmæssigt personale i, hvordan de kan afhjælpe bias inden for AI og inden for deres menneskelige teams, for at give dem mulighed for at deltage i at forbedre deres organisations AI-brug. Det er både en top-down og bottom-up indsats drevet ved menneskelig opfindsomhed: fjern åbenlys skævhed, så AI'en ikke inkorporerer det og derfor ikke bremser arbejdet eller forværrer nogens resultater.”
Finn tilføjer,”De, der ikke tænker retfærdigt om AI bruger det ikke på den rigtige måde.”
Også: NYC Health Department opretter koalition for at stoppe bias og 'race-normering' i medicinske algoritmer
At løse denne udfordring “kræver mere end at validere AI-systemer mod et par metrikker,” siger Oggel. “Hvis du tænker over det, hvordan definerer man så overhovedet begrebet retfærdighed? Ethvert givet problem kan have flere synspunkter, hver med forskellige definitioner af, hvad der anses for retfærdigt. Teknisk er det muligt at beregne metrics for datasæt og algoritmer, der sige noget om retfærdighed, men hvad skal det måles på?”
Oggel siger, at der kræves flere investeringer “i at forske i bias og forstå, hvordan man fjerner det fra AI-systemer. Resultatet af denne forskning skal inkorporeres i en ramme af standarder, politikker, retningslinjer og bedste praksis, som organisationer kan følge. Uden klare svar på disse og mange flere spørgsmål vil virksomheders bestræbelser på at eliminere bias kæmpe.”
AI-bias er ofte “utilsigtet og underbevidst,” tilføjer han. “At gøre personalet opmærksomme på problemet vil være et stykke vej til at adressere bias, men lige så vigtigt er det at sikre, at du har diversitet i dine datavidenskabs- og ingeniørteams, levere klare politikker og sikre ordentligt tilsyn.”
Mens det tager tid at åbne projekter og prioriteringer for virksomheden, er der kortsigtede tiltag, der kan tages på udviklings- og implementeringsniveau.
Harish Doddi, CEO for Datatron, råder til at stille følgende spørgsmål, efterhånden som AI-modeller udvikles:
Hvordan var de tidligere versioner? Hvilke inputvariable kommer ind i modellen? Hvad er outputvariablerne? Hvem har adgang til modellen? Har der været uautoriseret adgang? Hvordan opfører modellen sig, når det kommer til bestemte målinger?
Under udviklingen er maskinlæringsmodeller bundet af visse antagelser, regler og forventninger, som kan resultere i forskellige resultater, når de først er sat i produktion, forklarer Doddi. “Det er her, regeringsførelse er afgørende.” En del af denne styring er et katalog til at holde styr på alle versioner af modeller. “Kataloget skal kunne holde styr på og dokumentere rammerne, hvor modellerne udvikles, og deres afstamning.”
Virksomheder “skal bedre sikre, at kommercielle overvejelser ikke opvejer etiske overvejelser. Dette er ikke en let balancegang,” siger Oggel. “Nogle tilgange omfatter automatisk overvågning af, hvordan modeladfærd ændrer sig over tid på et fast sæt af prototypiske datapunkter. Dette hjælper med at kontrollere, at modeller opfører sig på en forventet måde og overholde nogle begrænsninger omkring sund fornuft og kendte risici for bias. regelmæssigt at udføre manuelle kontroller af dataeksempler for at se, hvordan en models forudsigelser stemmer overens med det, vi forventer eller håber at opnå, kan hjælpe med at opdage nye og uventede problemer.”
Fremhævede
Hvis du bruger Google Chrome, skal du installere dette nu Fjernarbejde: Dette er de højest betalende teknologi- og ledelsesjob Covid-testning: Den bedste til- hurtige testsæt til hjemmet JFrog-forskere finder JNDI-sårbarhed i H2-databasekonsoller, der ligner Log4Shell Enterprise Software | Digital transformation | CXO | Internet of Things | Innovation | Smarte byer