Eliminera AI-bias: Branschexperter väger in

0
197

Joe McKendrick Skriftligt av Joe McKendrick, bidragsgivare Joe McKendrick Joe McKendrick Bidragsgivare

Joe McKendrick är en författare och oberoende analytiker som spårar informationsteknologins inverkan på förvaltning och marknader. Joe är medförfattare, tillsammans med 16 ledande branschledare och tänkare, av SOA-manifestet, som beskriver värderingarna och vägledande principer för tjänsteorientering.

Fullständig biografi Publicerad i Service Oriented den 7 januari 2022 | Ämne: Artificiell intelligens

Utvecklare och datavetare är naturligtvis människor, men systemen de skapar är det inte — de är bara kodbaserade reflektioner av det mänskliga resonemang som går in i dem. Att få artificiell intelligens att leverera opartiska resultat och säkerställa smarta affärsbeslut kräver ett holistiskt tillvägagångssätt som involverar större delen av företaget.

Att eliminera partiskhet och felaktigheter i AI tar tid. “De flesta organisationer förstår att framgången för AI beror på att skapa förtroende hos slutanvändarna av dessa system, vilket i slutändan kräver rättvisa och opartiska AI-algoritmer”, säger Peter Oggel, CTO och senior vice president för teknikverksamhet på Irdeto. Men att leverera på detta är mycket mer komplicerat än att bara erkänna att problemet finns och prata om det.” 

Mer åtgärder krävs utanför gränserna för datacenter eller analytikersajter. “Dataforskare saknar utbildning, erfarenhet och affärsbehov för att avgöra vilka av de inkompatibla måtten för rättvisa som är lämpliga”, säger Blackman. “Dessutom saknar de ofta inflytande för att lyfta sina bekymmer till kunniga ledande befattningshavare eller relevanta ämnesexperter.”

Det är dags att göra mer “för att granska dessa resultat, inte bara när en produkt är live, utan under testning och efter alla viktiga projekt”, säger Patrick Finn, president och general manager för Americas på Blue Prism. “De måste också utbilda både teknisk personal och personal på affärssidan i hur man kan lindra partiskhet inom AI, och inom sina mänskliga team, för att ge dem möjlighet att delta i att förbättra sin organisations AI-användning. Det är både en uppifrån-och-ned-och-nedifrån-upp av mänsklig uppfinningsrikedom: ta bort uppenbara fördomar så att AI inte införlivar det och därför inte saktar ner arbetet eller försämrar någons resultat.”

Finn tillägger,”De som inte tänker rättvist om AI använder det inte på rätt sätt.”

Också: NYC Health Department skapar koalition för att få slut på partiskhet och “rasnormering” i medicinska algoritmer

Att lösa denna utmaning “kräver mer än att validera AI-system mot ett par mätvärden”, säger Oggel. “Om du tänker på det, hur definierar man ens begreppet rättvisa? Varje givet problem kan ha flera synpunkter, var och en med olika definitioner av vad som anses rättvist. Tekniskt sett är det möjligt att beräkna mätvärden för datamängder och algoritmer som säga något om rättvisa, men vad ska det mätas mot?”

Oggel säger att det krävs mer investeringar “för att forska om partiskhet och förstå hur man eliminerar det från AI-system. Resultatet av denna forskning måste införlivas i ett ramverk av standarder, policyer, riktlinjer och bästa praxis som organisationer kan följa. Utan tydliga svar på Dessa och många fler frågor kommer företagens ansträngningar för att eliminera partiskhet att kämpa.”

AI-bias är ofta “oavsiktlig och undermedveten”, tillägger han. “Att göra personalen medveten om problemet kommer att bidra till att ta itu med partiskhet, men lika viktigt är att se till att du har mångfald i dina datavetenskaps- och ingenjörsteam, tillhandahålla tydliga policyer och säkerställa korrekt tillsyn.”

Medan det tar tid att öppna upp projekt och prioriteringar för företaget, finns det kortsiktiga åtgärder som kan vidtas på utvecklings- och implementeringsnivå.

Harish Doddi, VD för Datatron, rekommenderar att du ställer följande frågor när AI-modeller utvecklas: 

Hur såg de tidigare versionerna ut? Vilka indatavariabler kommer in i modellen? Vilka är utdatavariablerna? Vem har tillgång till modellen? Har det förekommit någon obehörig åtkomst? Hur beter sig modellen när det kommer till vissa mätvärden?

Under utvecklingen är maskininlärningsmodeller bundna av vissa antaganden, regler och förväntningar, vilket kan resultera i olika resultat när de väl satts i produktion, förklarar Doddi. “Det är här styrning är avgörande.” En del av denna styrning är en katalog för att hålla reda på alla versioner av modeller. “Katalogen måste kunna hålla reda på och dokumentera ramverket där modellerna utvecklas och deras härkomst.”

Företag “måste bättre säkerställa att kommersiella överväganden inte väger tyngre än etiska överväganden. Det här är ingen lätt balansgång”, säger Oggel. “Vissa tillvägagångssätt inkluderar automatisk övervakning av hur modellbeteende förändras över tid på en fast uppsättning prototypiska datapunkter. Detta hjälper till att kontrollera att modeller beter sig på ett förväntat sätt och att följa vissa begränsningar kring sunt förnuft och kända risker för partiskhet. Dessutom, att regelbundet utföra manuella kontroller av dataexempel för att se hur en modells förutsägelser stämmer överens med vad vi förväntar oss eller hoppas uppnå kan hjälpa till att upptäcka nya och oväntade problem.”

Utvalda

Om du använder Google Chrome måste du installera detta nu. Fjärrarbete: Det här är de högst betalda teknik- och ledningsjobben Covid-testning: Bäst på- snabbtest för hem JFrog-forskare hittar JNDI-sårbarhet i H2-databaskonsoler som liknar Log4Shell Enterprise Software | Digital transformation | CXO | Internet of Things | Innovation | Smarta städer