Hvordan Deloitte navigerer i etikk i den AI-drevne arbeidsstyrken: Involver alle

0
10
lavprioritet=

Beena Ammanath er leder for Deloittes Technology Trust Ethics-praksis.

Deloitte

I 1845 grunnla William Welch Deloitte – ansatt for å revidere Great Western Railway – selskapet som fortsatt bærer navnet hans. Deloitte Touche Tohmatsu Limited har vokst fra en enmannsbutikk til en “Big Four”; regnskapsfirma som sysselsetter hundretusenvis av mennesker i dag. I de fleste mål er Deloitte nå verdens største regnskapsfirma.

Som leder av Deloittes Technology Trust Ethics-praksis, håndterer Beena Ammanath daglig utfordringer som William Welch Deloitte ikke kunne ha forestilt seg for 178 år siden. I tillegg til å veilede Deloittes perspektiv på AI-etikk både internt og eksternt, operasjonaliserer Ammanath AI-etikk fra et bedriftsperspektiv og leder Global Deloitte AI Institute. Teamet hennes fullførte nylig sin andre  State of Ethics and Trust in Technology-studie, som ser på etikk i teknologi på tvers av bedrifter.

Også: Har bedrifter etiske retningslinjer for bruk av AI? 56 % av fagfolkene er usikre, sier undersøkelse

En stor trend vi har fulgt en stund – og en som har akselerert i denne generative AI-æraen – er den stadig voksende rollen som sjef for etikk. Organisasjoner som tar i bruk ny teknologi står overfor nye utfordringer som oppstår fra kompleksiteten til programvaren, endringstakten og behovet for å respektere mangfoldet til sine ansatte, kunder og bestanddeler.

Men, som Ammanath forklarer nedenfor, involverer ansvaret for etisk ytelse nå hele ledergruppen, inkludert styrene. Selv om merkevarevekst er viktig, er behovet for å beskytte merkevarens omdømme og markedstillit den ekstra oppmerksomheten som etikk får på de øverste nivåene i virksomheten.

Jeg hadde muligheten til å intervjue Ammanath, og vår fascinerende og omfattende samtale berørte selskapets anstrengelser for å definere etisk AI i sammenheng med utvikling av arbeidsstyrken, samt hvordan resultatene av studien har informert forståelse av AI-etiske spørsmål og praksis i selskaper over hele verden.

La oss grave inn.

Også: Vær oppmerksom på tillitsgapet: Data dreier seg om umiddelbar forsiktighet fra kunder over generativ AI

ZDNET: Hvordan definerer Deloitte etisk AI i sammenheng med utvikling av arbeidsstyrken?

Beena Ammanath: Med avanserte teknologier som AI, er det et enormt potensial for positiv innvirkning – men det er samtidig en risiko for utilsiktede utfall.

Organisasjoner bør være trygge på at verktøyene de bruker oppfører seg etisk, kan stole på for å beskytte personvernet, sikkerheten og rettferdig behandling av brukerne, og er på linje med deres formål og verdier. Det er her etiske retningslinjer for AI kommer inn i bildet, og hjelper organisasjoner på en ansvarlig måte å utnytte denne teknologien samtidig som den utnytter fordelene.

Også: Trenger bedriften din en sjef for kunstig intelligens?

Å introdusere disse retningslinjene for arbeidsstyrken er et kritisk skritt når du skal ta i bruk AI i en organisasjon. Vi så fra forskningen vår at ledere bruker en rekke strategier for å utdanne arbeidsstyrken sin om AI-etikk og forberede dem til å bruke AI-verktøy, fra å utdanne arbeidere om pålitelige beste praksiser til oppkvalifisering og ansettelse for spesifikke AI-etikkroller.

ZDNET: Hvilke strategier anbefaler du for å inkludere etiske hensyn i AI-utvikling?

BA:Tilnærmingen til å utvikle et etisk rammeverk for AI-utvikling og -applikasjon vil være unik for hver organisasjon. De må bestemme brukstilfellene deres for AI, samt de spesifikke rekkverkene, retningslinjene og praksisene som er nødvendige for å sikre at de oppnår ønsket resultat samtidig som de ivaretar tillit og personvern.

Å etablere disse etiske retningslinjene – og forstå risikoen ved å operere uten dem – kan være svært komplisert. Prosessen krever kunnskap og kompetanse på tvers av et bredt spekter av disipliner. I vår studie så vi en trend mot å ansette for spesialiserte roller, for eksempel AI-etikkforsker (53 %), compliance-spesialist (53 %) og teknologipolitisk analytiker (51 %).

Også: Etikken til generativ AI: Hvordan vi kan utnytte denne kraftige teknologien

På et bredere nivå ble publisering av klare etiske retningslinjer og retningslinjer, og å tilby workshops og opplæring om AI-etikk, rangert i vår undersøkelse som noen av de mest effektive måtene å kommunisere AI-etikk til arbeidsstyrken, og dermed sikre at AI-prosjekter gjennomføres med etikk i tankene.

ZDNET: Hvilken rolle spiller lederskap i å fremme en etisk AI-kultur?

BA: Lederskap spiller en avgjørende rolle i å understreke viktigheten av AI-etikk, bestemme ressursene og erfaringen som trengs for å etablere etikkpolicyer for en organisasjon, og sikre at disse prinsippene rulles ut.

Dette var en grunn til at vi utforsket emnet AI-etikk fra C-suite-perspektivet. Vi ser at ledere tar en proaktiv tilnærming for å forberede arbeidsstyrken sin for denne teknologien.

Dessuten: Har bedrifter etiske retningslinjer for bruk av kunstig intelligens? 56 % av fagfolkene er usikre 

Etikksjefer og tillitsansvarlige har blitt en bærebjelke for organisasjoner som ønsker å etisk ta i bruk ny teknologi, men det er ikke deres ansvar alene. Dialogen involverer ofte hele ledernivået inkludert styret. Studien vår avslørte også at ledere ser en sterk sammenheng mellom AI-etikk og viktige forretningsleietakere som inntektsvekst, merkevareomdømme og markedstillit.

Det er også viktig å merke seg at arbeidet med å introdusere AI-etikk og -policyer skjer på tvers av organisasjoner, på alle nivåer – fra C-suiten og styrerommet til spesialister og enkeltmedarbeidere.

ZDNET: Hvordan sikrer du at etiske AI-prinsipper brukes konsekvent på tvers av globale team?

BA:Dette er et eksempel på hvorfor det er avgjørende å etablere klare, konsistente etiske retningslinjer – og sannsynligvis hvorfor det ble rangert som den mest effektive måten å kommunisere AI-etikk til ansatte, ifølge vår undersøkelse.

Vi ser også samtaler rundt AI-etikk blant ledere på styrenivå, noe som vil sikre konsistente, organisasjonsomfattende retningslinjer og handlinger. I følge studien sa over halvparten av respondentene at styrene (52 %) og etiske sjefer (52 %) alltid er involvert i å lage retningslinjer og retningslinjer for etisk bruk av kunstig intelligens.

ZDNET: Hvordan ser du at fremtiden for arbeid endrer seg med bruken av etisk AI?

BA: Den økende vektleggingen av AI-etikk er et godt tegn på integrasjonen av AI i arbeidsverdenen beveger seg i en positiv retning – den utbredte vektleggingen av verdien av å etablere og håndheve etiske prinsipper betyr at arbeidsstyrken vil være i stand til å utnytte sine evner mer effektivt og effektivt.

Også: Alle vil ha ansvarlig AI, men få mennesker gjør noe med det

For arbeidstakere betyr dette også at mange vil bli oppmuntret og bemyndiget til å øke kunnskapen om teknologien. Undersøkelsen vår viste at omtrent 45 % av organisasjonene aktivt trener og oppgraderer arbeidsstyrken sin i AI.

ZDNET: Hva er de unike utfordringene ved å oppgradere ansatte til etisk AI?

BA:Opplæring er en viktig del av AI-adopsjon, men det kan se veldig annerledes ut for arbeidere med ulik kompetanse og erfaring. Det innebærer å forstå ansatte' nåværende evner og ferdigheter, og se hvordan disse ferdighetene kan forbedres eller bygges videre på med AI.

Forstå hvordan arbeidere' unike evner samhandler med og kan styrkes av teknologien, spesielt for store, mangfoldige organisasjoner, kan være utfordrende.

ZDNET: Hvilke tiltak kan iverksettes for å øke åpenheten i AI-beslutningsprosesser?

BA:Kommunikasjon er nøkkelen her – det økte fokuset på AI-etikk har utløst samtaler på ledernivå om ikke bare å etablere etiske prinsipper, men også effektivt kommunisere dem. Mens mye av beslutningsprosessen skjer på leder- eller styrenivå, er det viktig for disse beslutningene å involvere spesialister på tvers av ulike disipliner, og at de kommuniseres effektivt på tvers av organisasjonen.

ZDNET: Hvilke skritt bør bedrifter ta for å sikre at deres AI-applikasjoner er ansvarlige og pålitelige?

BA: Når du utvikler eller starter nye AI-applikasjoner, er det viktig å ha et rammeverk for å styre ansvarlig utforming og drift av disse applikasjonene. Undersøkelsen vår viste at mange ledere er klar over behovet for disse retningslinjene, og de prioriterer å lage og kommunisere AI-etiske retningslinjer før aktivering av nye AI-pilotprosjekter.

Også: 4 måter AI bidrar til skjevhet på arbeidsplassen

ZDNET: Hvordan vurderer Deloitte de etiske implikasjonene av nye AI-teknologier? Hvordan adresserer Deloitte de etiske bekymringene rundt AI og personvern? Hvilke etiske retningslinjer følger Deloitte når de utvikler AI-løsninger?

BA: Deloittes pålitelige AI-rammeverk skisserer syv dimensjoner for å evaluere AI-atferd:

    Åpenhet og forklaring Rettferdighet og upartiskhetRobusthet og pålitelighetSikkerhet og sikkerhetAnsvarAnsvarRespekt for personvern

Deloittes Technology Trust Ethics-praksis produserte også et rammeverk for å veilede ansvarlig beslutningstaking i design, drift og styring av alle nye teknologier.

I tillegg til å utvikle veiledende rammeverk, lanserte Deloittes Technology Trust Ethics-team en første i sitt slag grunnleggende opplæring i 2023 for å hjelpe ansatte med å utvikle et etisk teknologisk tankesett, gjenkjenne praktiske handlinger alle kan ta for å oppdage og redusere etiske risikoer med teknologier , og forstår det økende behovet for å utvikle og håndtere teknologi på en ansvarlig og pålitelig måte hos Deloitte.

Også: AI er superladende samarbeid mellom utviklere og forretningsbrukere

ZDNET: Hvordan kan AI-etikk integreres i kjerneverdiene til et selskap ? Hva er betydningen av etisk kunstig intelligens for å opprettholde forbrukernes tillit?

BA:Bruken av AI-verktøy på tvers av organisasjoner er allerede nesten allestedsnærværende – flertallet (84 %) av de undersøkte lederne på C-nivå rapporterer at organisasjonene deres bruker kunstig intelligens. Ytterligere 12 % av lederne indikerer at de vil utforske AI-brukstilfeller i løpet av det neste året.

Dette betyr at organisasjoner må fokusere på å sørge for at bruken av disse verktøyene – og eventuelle nye teknologier – samsvarer med organisasjonens kjerneverdier, etikk og forventninger.

Å ha en klar forståelse av teknologiens tiltenkte bruk for deres organisasjon og det ønskede resultatet er avgjørende for å etablere nødvendige retningslinjer for å sikre disse resultatene.

Det er et sterkt bånd mellom merkevaretillit og pålitelighet og etiske retningslinjer rundt AI. I vår undersøkelse mener 47 % av lederne at etiske retningslinjer for nye teknologier som generativ AI er avgjørende for merkevarens omdømme og markedstilliten.

Også: AI forvandler organisasjoner overalt. Hvordan disse 6 selskapene leder an

ZDNET: Hvordan kan organisasjoner sikre at AI-systemene deres er inkluderende og rettferdige?

BA: Å lage og bruke AI-verktøy som er rettferdige og inkluderende er en pågående prosess som må utvikles sammen med teknologien. Dette betyr å involvere forskere og spesialister som kan utvikle prosesser og systemer for å løse problemer som skjevhet.

Det krever også involvering av ulike perspektiver i AI-utvikling, for å sikre at teknologien er designet og operert inkluderende. Inklusivitet og egenkapital bør brettes inn i en organisasjons rammeverk for AI-etikk som en nøkkelfasett å ta tak i når man utvikler eller utnytter AI.

Siste tanker

ZDNETs redaktører og jeg vil gjerne gi en stor ros til Beena Ammanath for at hun tok seg tid til å delta i dette dybdeintervjuet. Her er det mye til ettertanke. Takk, Beena!

Også: Etterspørselen etter hybridarbeid bare øker, ifølge en ny Deloitte-rapport

Hva synes du? Ga anbefalingene hennes deg noen ideer om hvordan du kan forbedre problemer med skjevheter og mangfold i organisasjonen din? Gi oss beskjed i kommentarene nedenfor.

Du kan følge mine daglige prosjektoppdateringer på sosiale medier. Sørg for å abonnere på mitt ukentlige oppdateringsnyhetsbrev på Substack, og følg meg på Twitter på @DavidGewirtz, på Facebook på Facebook.com/DavidGewirtz, på Instagram på Instagram.com/DavidGewirtz og på YouTube på YouTube.com/DavidGewirtzTV.< /p>