NIST ber om hjelp til å utvikle rammeverk som håndterer risiko for AI

0
139

 Jonathan Greig

Av Jonathan Greig | 31. juli 2021 – 12:00 GMT (13:00 BST) | Tema: Kunstig intelligens

National Institute of Standards and Technology (NIST) – en del av det amerikanske handelsdepartementet – ber publikum om innspill til et rammeverk for risikostyring av AI, som organisasjonen er i ferd med å utvikle som en måte å “administrere risiko forbundet med kunstig intelligens. “

The Artificial Intelligence Risk Management Framework (AI RMF) vil være et frivillig dokument som kan brukes av utviklere, evaluerere og andre som en måte å” forbedre påliteligheten til AI -systemer . “

NIST bemerket at forespørselen om innspill kommer etter at kongressen og Det hvite hus ba organisasjonen om å lage et rammeverk for AI.

Nestleder handelssekretær Don Graves sa i en uttalelse at dokumentet “kan gjøre en kritisk forskjell i om ny AI -teknologi er konkurransedyktig på markedet eller ikke. “

“Hver dag blir det mer tydelig at kunstig intelligens gir oss et bredt spekter av innovasjoner og nye evner som kan fremme vår økonomi, sikkerhet og livskvalitet. Det er kritisk at vi er bevisste og rustet til å håndtere risikoene AI -teknologier introduserer sammen med med fordelene sine, “sa Graves.

“Denne AI Risk Management Framework vil hjelpe designere, utviklere og brukere av AI til å ta hensyn til alle disse faktorene – og dermed forbedre amerikanske evner i et svært konkurransedyktig globalt AI -marked.”

< p>Det er økende etterspørsel etter en eller annen form for regulering rundt bruk av AI på tvers av bransjer, spesielt ettersom den begynner å bli innlemmet i en rekke kritiske, sensitive prosesser. Studier har vist at hundrevis av AI -systemer er berøvet av skjevheter som ikke har blitt adressert av skaperne.

Et forsikringsselskap, Lemonade Insurance, sto overfor betydelige tilbakeslag i mai for å kunngjøre at deres AI -system ville bedømme om en person løy om en bilulykke basert på en video som ble sendt etter hendelsen.

Det er allerede en lang bevegelse for å stoppe bruken av AI i ansiktsgjenkjenningsprogramvare som er vedtatt av offentlige og private institusjoner.

NISTs Elham Tabassi, føderal AI -standardkoordinator og medlem av National AI Research Resource Task Force, forklarte at for at AI skal nå sitt fulle potensial som en fordel for samfunnet, må det være en pålitelig teknologi.

“Selv om det kan være umulig å eliminere risikoene som er forbundet med AI, utvikler vi dette veiledningsrammeverket gjennom en konsensusdrevet, samarbeidsprosess som vi håper vil oppmuntre til bred adopsjon og derved minimere disse risikoene,” Sa Tabassi.

NIST bemerket at utvikling og bruk av nye AI-baserte teknologier, produkter og tjenester gir “tekniske og samfunnsmessige utfordringer og risiko.”

“NIST ber om innspill for å forstå hvordan organisasjoner og enkeltpersoner som er involvert i utvikling og bruk av AI -systemer kan kanskje ta for seg hele omfanget av AI -risiko og hvordan et rammeverk for å håndtere disse risikoene kan konstrueres, “sa NIST i en uttalelse.

NIST leter spesielt etter informasjon om de største utfordringene utviklere står overfor for å forbedre håndteringen av AI-relaterte risikoer. NIST er også interessert i å forstå hvordan organisasjoner for øyeblikket definerer og administrerer kjennetegn ved AI -pålitelighet. Organisasjonen leter på lignende måte etter innspill om i hvilken grad AI -risiko er innlemmet i organisasjoners overordnede risikostyring, spesielt rundt cybersikkerhet, personvern og sikkerhet.

NIST venter svar innen 19. august, og de planlegger å holde en workshop i september hvor eksperter vil kunne hjelpe til med å lage oversikten for det første utkastet.

Når det første utkastet er utgitt, vil NIST fortsette å jobbe på det og kan komme tilbake for flere offentlige kommentarer.

Lynne Parker, direktør for National AI Initiative Office i White House Office of Science and Technology Policy, sa at AI Risk Management Framework vil “dekke et stort behov for å fremme pålitelige tilnærminger til AI for å tjene alle mennesker på ansvarlige, rettferdige og fordelaktige måter. “

“AI -forskere og utviklere trenger og ønsker å vurdere risiko før, under og etter utviklingen av AI -teknologier, og dette rammeverket vil informere og veilede deres innsats,” la Parker til.

For å sende inn svar til RFI, last ned malskjemaet og send det på e -post til AIframework@nist.gov.

se også

 Kunstig intelligens i den virkelige verden: Hva kan den egentlig gjøre?

Kunstig intelligens i den virkelige verden: Hva kan den egentlig gjøre?

Hva er grensene for AI? Og hvordan går du fra å administrere datapunkter til å injisere AI i virksomheten?

Les mer

Relaterte emner:

Government – US Digital Transformation CXO Internet of Things Innovation Enterprise Software  Jonathan Greig

Av Jonathan Greig | 31. juli 2021 – 12:00 GMT (13:00 BST) | Tema: Kunstig intelligens