Il National Institute of Standards and Technology (NIST) – parte del Dipartimento del Commercio degli Stati Uniti – chiede al pubblico un contributo su un quadro di gestione del rischio AI, che l'organizzazione sta sviluppando come un modo per “gestire il rischi posti dall'intelligenza artificiale.”
L'Artificial Intelligence Risk Management Framework (AI RMF) sarà un documento volontario che può essere utilizzato da sviluppatori, valutatori e altri come un modo per “migliorare l'affidabilità dei sistemi di intelligenza artificiale .”
Il NIST ha osservato che la richiesta di input arriva dopo che il Congresso e la Casa Bianca hanno chiesto all'organizzazione di creare un quadro per l'IA.
Il vice segretario al commercio Don Graves ha dichiarato in una dichiarazione che il documento “potrebbe fare una differenza fondamentale in se le nuove tecnologie AI sono competitive o meno sul mercato.”
“Ogni giorno diventa più evidente che l'intelligenza artificiale ci offre una vasta gamma di innovazioni e nuove capacità che possono far progredire la nostra economia, la sicurezza e la qualità della vita. È fondamentale che siamo consapevoli e attrezzati per gestire i rischi che le tecnologie di intelligenza artificiale introducono lungo con i loro benefici”, ha detto Graves.
“Questo framework di gestione del rischio AI aiuterà i progettisti, gli sviluppatori e gli utenti di AI a prendere in considerazione tutti questi fattori e quindi a migliorare le capacità degli Stati Uniti in un mercato globale AI molto competitivo.”
p>C'è una crescente domanda di una qualche forma di regolamentazione sull'uso dell'IA in tutti i settori, soprattutto quando inizia a essere incorporata in una serie di processi critici e sensibili. Gli studi hanno dimostrato che centinaia di sistemi di intelligenza artificiale sono privi di pregiudizi che non sono stati affrontati dai loro creatori.
A maggio una compagnia di assicurazioni, Lemonade Insurance, ha subito un contraccolpo significativo per aver annunciato che il proprio sistema di intelligenza artificiale avrebbe giudicato se una persona stava mentendo su un incidente d'auto sulla base di un video inviato dopo l'incidente.
C'è già un movimento di vecchia data per porre fine all'uso dell'intelligenza artificiale nei software di riconoscimento facciale adottati da istituzioni pubbliche e private.
Elham Tabassi del NIST, coordinatore federale degli standard AI e membro della National AI Research Resource Task Force, ha spiegato che affinché l'AI raggiunga il suo pieno potenziale come beneficio per la società, deve essere una tecnologia affidabile.
“Anche se potrebbe essere impossibile eliminare i rischi inerenti all'IA, stiamo sviluppando questo quadro di riferimento attraverso un processo collaborativo guidato dal consenso che speriamo ne incoraggi l'ampia adozione, riducendo così al minimo questi rischi”, ha detto Tabassi.
Il NIST ha osservato che lo sviluppo e l'uso di nuove tecnologie, prodotti e servizi basati sull'intelligenza artificiale comportano “sfide e rischi tecnici e sociali”.
“Il NIST sta sollecitando input per comprendere come le organizzazioni e gli individui coinvolti nello sviluppo e nell'utilizzo I sistemi di intelligenza artificiale potrebbero essere in grado di affrontare l'intera portata del rischio di intelligenza artificiale e come potrebbe essere costruito un quadro per la gestione di questi rischi”, ha affermato il NIST in una nota.
Il NIST è specificamente alla ricerca di informazioni sulle maggiori sfide che gli sviluppatori devono affrontare per migliorare la gestione dei rischi legati all'intelligenza artificiale. Il NIST è anche interessato a capire come le organizzazioni attualmente definiscono e gestiscono le caratteristiche dell'affidabilità dell'IA. Allo stesso modo, l'organizzazione è alla ricerca di input sulla misura in cui i rischi dell'IA sono incorporati nella gestione del rischio globale delle organizzazioni, in particolare in materia di sicurezza informatica, privacy e sicurezza.
Il NIST si aspetta risposte entro il 19 agosto e prevede di tenere un seminario a settembre in cui gli esperti saranno in grado di aiutare a creare lo schema per la prima bozza.
Una volta rilasciata la prima bozza, il NIST continuerà a lavorare su di esso e potrebbe tornare in giro per ulteriori commenti pubblici.
Lynne Parker, direttrice del National AI Initiative Office presso l'Office of Science and Technology Policy della Casa Bianca, ha affermato che l'AI Risk Management Framework “soddisferà una grande esigenza nel promuovere approcci affidabili all'IA per servire tutte le persone in modo responsabile, equo e vantaggioso.”
“I ricercatori e gli sviluppatori di intelligenza artificiale hanno bisogno e vogliono considerare i rischi prima, durante e dopo lo sviluppo delle tecnologie di intelligenza artificiale, e questo quadro informerà e guiderà i loro sforzi”, ha aggiunto Parker.
Per inviare risposte a RFI, scaricare il modulo di risposta modello e inviarlo tramite e-mail a AIframework@nist.gov.
vedi anche
Intelligenza artificiale nel mondo reale: cosa può fare effettivamente?
Quali sono i limiti dell'IA? E come si passa dalla gestione dei punti dati all'iniezione di intelligenza artificiale nell'azienda?
Ulteriori informazioni
Argomenti correlati:
Governo – US Digital Trasformazione CXO Internet of Things Innovation Enterprise Software