Rådgivning for teknologer på at fremme etik, AI

0
142

Etik væve som et irriterende problem, når det kommer til kunstig intelligens (AI). Hvor er AI bias foråret fra, især når det er utilsigtet? Er virksomhederne betale nok opmærksomhed til det, som de springet fuld kraft ind i AI udvikling og implementering? Laver de noget om det? Har de selv vide, hvad de skal gøre ved det?

airport-chicago-ohare-cropped-nov-2015-photo-by-joe-mckendrick.jpg

Foto: Joe McKendrick

Vred bias og utilsigtede konsekvenser af AI er på vej i job beskrivelser af teknologi ledere og fagfolk, især som virksomhedsledere, der henvender sig for at få vejledning og vurdering. Drevet til etiske AI betyder en øget rolle for teknikere i branchen, som beskrevet i en undersøgelse af 1,580 ledere og 4.400 forbrugere fra Capgemini Research Institute. Undersøgelsen var i stand til at gøre direkte forbindelser mellem AI etik og vækst i virksomheden: hvis forbrugerne forstand en virksomhed, der beskæftiger AI etisk, de vil holde kommer tilbage; det har de forstand uetisk AI-praksis, deres virksomhed er gået.

Det konkurrencemæssige pres er grunden til at virksomheder er at skubbe AI til sine grænser og risikere at krydse etiske linjer. “Presset for at gennemføre AI giver næring etiske spørgsmål,” den Capgemini forfattere, ledet af Anne-Laure Thieullent, administrerende direktør i Capgemini ‘ s Artificial Intelligence og Analytics-Gruppen, staten. “Når vi spurgte ledere, hvorfor etiske problemer som følge af AI er et stigende problem, top-rangeret grund blev presset til at gennemføre AI.” Tredive fire procent citeret dette pres for at være på forkant med AI tendenser.

En anden-tredje rapport etiske spørgsmål, der ikke blev anset mens konstruere AI systemer, undersøgelsen viser. Andet 31% sagde, at deres største problem var mangel på folk og ressourcer. Dette er, hvor IT-chefer og medarbejdere kan gøre en forskel.

Den Capgemini teamet har identificeret de problemstillinger, som IT-ledere og fagfolk har brug for til at behandle:

“Mangel på etiske AI adfærdskodeks eller evne til at vurdere afvigelsen fra det Manglende, relevant uddannelse for udviklere, der bygger AI systemer
Etiske spørgsmål blev ikke taget i betragtning ved konstruktion af AI-system
Pres for hurtigt at gennemføre AI uden at behandle etiske spørgsmål
Manglende ressourcer (fonde, mennesker, teknologi), der er dedikeret til etiske AI systemer”

Thieullent og hendes co-forfattere har råd til IT-administratorer og professionelle at tage en ledende rolle i form af AI-etik:

Give brugerne mere kontrol og mulighed for at søge regres: “Det betyder, at bygge-politikker og-processer, hvor brugere kan bede om forklaringer af AI-baserede beslutninger.”

Gøre AI systemer transparent og forståeligt, for at få brugernes tillid: “Den teams til at udvikle de systemer, der skal levere den dokumentation og information til at forklare, på en enkel måde, hvordan visse AI-baserede beslutninger er nået, og hvordan de påvirker en person. Disse hold har også brug for at dokumentere processer for datasæt samt beslutningsprocesser.”

Praksis gode data management og afbøde potentielle bias i data: “Mens generel ledelse vil være
ansvarlig for indstilling af gode data management praksis, det falder på de data, teknik og data videnskab og AI teams for at sikre, at denne praksis er fulgt igennem. Disse teams bør indarbejde “privacy by design” – principper i design og opbygning fase og sikre robusthed, repeterbarhed, og muligheder for at kontrollere hele data cyklus (rå data, data, test af data, osv.).”

Som en del af denne, IT-chefer har brug for at “kontrollere for nøjagtighed, kvalitet, robusthed og potentielle bias, herunder påvisning af under-repræsenteret mindretal eller begivenheder/mønstre,” samt “bygge tilstrækkelige data mærkning praksis og regelmæssigt, butik ansvarligt, så det er gjort tilgængelige for revision og repeterbarhed vurderinger.”

Holde tæt kontrol på datasæt: “Fokus på at sikre, at eksisterende datasæt, som ikke skaber eller styrker de eksisterende fordomme. For eksempel, er at identificere eksisterende bias i datasættet gennem brug af de eksisterende AI værktøjer eller gennem målrettet kontrol i statistiske mønstre af datasæt.” Dette omfatter også “at udforske og implementering af systemer for at kontrollere og rette de eksisterende bias i datasættet, før udvikle algoritmer,” og “gennemførelse af tilstrækkelige pre-release forsøg og post-release-overvågning for at identificere, regulere og mindske eventuelle eksisterende fordomme.”

Bruge it-værktøjer til at opbygge, etik, AI: “Et af de problemer, som dem, der gennemfører AI er black-box karakter af dyb læring og neurale netværk. Dette gør det vanskeligt at bygge på åbenhed og check for fordomme.” I stigende grad, at nogle virksomheder er implementering tech og bygge platforme, der kan hjælpe med at tackle dette. Thieullent og hendes co-forfattere peger på at fremme udviklingen på markedet, som IBM ‘ s AI OpenScale, open source værktøjer og løsninger fra AI nystartede virksomheder, som kan give mere gennemsigtighed og ind til bias.

Opret etik governance strukturer og sikre ansvarlighed for AI-system: “at Skabe klare roller og strukturer, tildele etiske AI ansvarlighed til de vigtigste mennesker og teams, og give dem.” Dette kan opnås ved at “tilpasse eksisterende governance strukturer at opbygge ansvarlighed inden for bestemte hold. For eksempel, den eksisterende etik bly (fx, Chief Ethics Officer) i den organisation, der kan varetage det ansvar, ser man også ind i etiske problemer i AI.”

Det er også vigtigt, at der tildeles “senior ledere, der ville blive holdt ansvarlige for etiske spørgsmål i AI.” Thieullent og Capgemini team anbefaler også, “opbygning af interne og eksterne udvalg, der er ansvarlige for implementering af AI etisk, som er uafhængige og derfor under ingen pres for at haste til AI implementering.”

Bygge forskellige teams for at sikre, følsomhed over for det fulde spektrum af etiske spørgsmål: “Det er vigtigt at inddrage forskellige teams. For eksempel, en organisation, der ikke kun behov for at bygge flere forskellige data-hold (i form af køn eller etnicitet), men også aktivt at skabe tværfaglige teams af sociologer, adfærdsmæssige forskere og UI/UX designere, der kan give yderligere perspektiver i løbet af AI design.”

Relaterede Emner:

DET Prioriteter

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software