National Institute of Standards and Technology (NIST) – en del af det amerikanske handelsministerium – beder offentligheden om input til en AI -risikostyringsramme, som organisationen er i gang med at udvikle som en måde at “styre risici forbundet med kunstig intelligens. “
The Artificial Intelligence Risk Management Framework (AI RMF) vil være et frivilligt dokument, der kan bruges af udviklere, evaluerere og andre som en måde at” forbedre troværdigheden af AI -systemer . “
NIST bemærkede, at anmodningen om input kommer efter, at kongressen og Det Hvide Hus bad organisationen om at oprette en ramme for AI.
Vice -handelssekretær Don Graves sagde i en erklæring, at dokumentet “kunne gøre en kritisk forskel i om nye AI -teknologier er konkurrencedygtige på markedet. “
“Hver dag bliver det mere tydeligt, at kunstig intelligens bringer os en lang række innovationer og nye muligheder, der kan fremme vores økonomi, sikkerhed og livskvalitet. Det er afgørende, at vi er opmærksomme og rustede til at håndtere de risici, AI -teknologier indfører sammen med med deres fordele, “sagde Graves.
“Denne AI -risikostyringsramme hjælper designere, udviklere og brugere af AI med at tage alle disse faktorer i betragtning – og derved forbedre amerikanske muligheder på et meget konkurrencedygtigt globalt AI -marked.”
< p>Der er stigende efterspørgsel efter en eller anden form for regulering omkring AI's anvendelse på tværs af industrier, især da den begynder at blive indarbejdet i en række kritiske, følsomme processer. Undersøgelser har vist, at hundredvis af AI -systemer er berøvet med forspændinger, der ikke er blevet behandlet af deres skabere.
Et forsikringsselskab, Lemonade Insurance, stod i maj stærkt tilbage mod at meddele, at deres AI -system ville bedømme, om en person lyver om en bilulykke baseret på en video, der blev indsendt efter hændelsen.
Der er allerede en mangeårig bevægelse for at afslutte brugen af AI i ansigtsgenkendelsessoftware vedtaget af offentlige og private institutioner.
NIST's Elham Tabassi, føderal AI -standardkoordinator og medlem af National AI Research Resource Task Force, forklarede, at for at AI kan nå sit fulde potentiale som en fordel for samfundet, må det være en pålidelig teknologi.
“Selvom det kan være umuligt at eliminere de risici, der er forbundet med AI, udvikler vi denne vejledningsramme gennem en konsensusdreven, samarbejdsproces, som vi håber vil fremme den brede vedtagelse og derved minimere disse risici,” Sagde Tabassi.
NIST bemærkede, at udviklingen og brugen af nye AI-baserede teknologier, produkter og tjenester medfører “tekniske og samfundsmæssige udfordringer og risici.”
“NIST efterlyser input til at forstå, hvordan organisationer og enkeltpersoner, der er involveret i udvikling og brug af AI -systemer kan muligvis løse det fulde omfang af AI -risiko, og hvordan en ramme for håndtering af disse risici kan konstrueres, “sagde NIST i en erklæring.
NIST leder specifikt efter oplysninger om de største udfordringer, udviklere står overfor med at forbedre håndteringen af AI-relaterede risici. NIST er også interesseret i at forstå, hvordan organisationer i øjeblikket definerer og administrerer egenskaber ved AI -troværdighed. Organisationen leder på samme måde efter input om, i hvilket omfang AI -risici er indarbejdet i organisationers overordnede risikostyring, især omkring cybersikkerhed, privatliv og sikkerhed.
NIST venter svar inden den 19. august, og de planlægger at afholde en workshop i september, hvor eksperter vil kunne hjælpe med at oprette omridset for det første udkast.
Når det første udkast er frigivet, fortsætter NIST med at arbejde om det og kan komme tilbage for flere offentlige kommentarer.
Lynne Parker, direktør for National AI Initiative Office i White House Office of Science and Technology Policy, sagde, at AI Risk Management Framework vil “imødekomme et stort behov for at fremme troværdige tilgange til AI for at tjene alle mennesker på ansvarlige, rimelige og gavnlige måder. “
“AI -forskere og udviklere har brug for og vil overveje risici før, under og efter udviklingen af AI -teknologier, og denne ramme vil informere og vejlede deres indsats,” tilføjede Parker.
Hvis du vil indsende svar til RFI, skal du downloade skabelonsvareformularen og sende den til AIframework@nist.gov via e -mail.
se også
Kunstig intelligens i den virkelige verden: Hvad kan den egentlig gøre?
Hvad er grænserne for AI? Og hvordan går du fra at styre datapunkter til at injicere AI i virksomheden?
Læs mere
Relaterede emner:
Government – US Digital Transformation CXO Internet of Things Innovation Enterprise Software