La Commissione per i diritti umani chiede all'NDIS di ricordare il robo-debito nella spinta all'automazione

0
131

Asha Barbaschow

Di Asha Barbaschow | 22 giugno 2021 — 06:16 GMT (07:16 BST) | Tema: Innovazione

Il commissario della Australian Human Rights Commission (AHRC) Edward Santow ha messo in guardia il governo federale dall'usare l'intelligenza artificiale in qualsiasi ulteriore processo decisionale, evidenziando il rischio che l'IA può rappresentare per i diritti umani.

Santow, parlando martedì del Il rapporto sui diritti umani e la tecnologia recentemente pubblicato, ha indicato il programma di intervento di conformità online di Centrelink, il cui elemento di automazione è diventato colloquialmente noto come robo-debito, per evidenziare questo rischio.

“Le nostre preoccupazioni sull'uso dell'intelligenza artificiale nel processo decisionale, specialmente in processi decisionali davvero importanti – sono molto consapevole che nel passaggio all'uso di valutazioni indipendenti nell'NDA c'è il rischio che alcuni degli errori che sono stati fatti in relazione al robo-debito potrebbero essere rifatti in questo contesto”, ha affermato.

L'Agenzia nazionale per l'assicurazione sulla disabilità (NDIA) ha annunciato l'introduzione di valutazioni indipendenti per i partecipanti all'NDIS. Sono progettati, secondo il governo, per garantire che l'accesso al NDIS sia giusto ed equo per i partecipanti nuovi ed esistenti.

Secondo l'opposizione federale, le valutazioni indipendenti sono un altro modo per dire “robo-pianificazione”.

Deve leggere: NDIS elude la blockchain nell'app governativa per la caccia al debito nel lavandino della cucina

“Dobbiamo imparare le lezioni dal robo-debito e questo a sua volta significa che dobbiamo assicurarci che ogni volta che viene utilizzata l'intelligenza artificiale, specialmente quando viene utilizzata dal governo, deve essere equa, accurata e responsabile”, ha affermato Santow.

“Penso che alcune delle preoccupazioni che sono state espresse in pubblico sull'uso di un algoritmo nel processo di valutazione indipendente per l'NDIS siano che alcuni di questi elementi, equità, accuratezza e responsabilità, potrebbero essere compromessi.”

Santow ha affermato che se fosse stato utilizzato un algoritmo per prendere quelle decisioni cruciali presso l'NDIS, il governo doveva essere molto fiducioso nella qualità delle informazioni immesse nel sistema e assicurarsi che sarebbe stato accurato, senza errori , ed essere privo di pregiudizi.

“Anche la responsabilità è di fondamentale importanza: qualunque decisione venga presa, ad esempio nell'area della valutazione indipendente, deve essere responsabile”, ha aggiunto. “Le persone devono comprendere le ragioni della loro valutazione e devono essere in grado di impugnare tale decisione se ritengono che la decisione sia sbagliata o ingiusta, soprattutto se illecita.”

Nel suo rapporto, l'AHRC ha formulato una serie di raccomandazioni e suggerimenti al governo, incluso il divieto di utilizzare il riconoscimento facciale e altre tecnologie biometriche nelle aree “ad alto rischio”.

Ma dove accessibile. era preoccupata per la tecnologia, la commissione ha chiesto ai governi federale, statale, territoriale e locale di impegnarsi a utilizzare una tecnologia di comunicazione digitale pienamente conforme agli standard di accessibilità riconosciuti.

Ha raccomandato di farlo attraverso l'introduzione della totalità dei -requisiti governativi per la conformità a questi standard.

“Le persone con disabilità hanno il diritto di accedere alla tecnologia”, ha affermato l'AHRC. “L'accesso alle nuove tecnologie, in particolare alla tecnologia della comunicazione digitale, è un diritto abilitante per le persone con disabilità perché è fondamentale per il godimento di una serie di altri diritti civili, politici, economici, sociali e culturali.

“Un buon design tecnologico può consentire la partecipazione delle persone con disabilità come mai prima d'ora, dall'uso di sottotitoli dal vivo in tempo reale alla dipendenza da assistenti domestici intelligenti. D'altra parte, un design scadente può causare danni significativi, riducendo la capacità delle persone con disabilità a partecipare ad attività fondamentali per il godimento dei loro diritti umani e la loro capacità di vivere in modo indipendente.”

ULTIME DA CANBERRA

Digital Health Agency afferma che il lavoro di mitigazione del rischio My Health Record su -trackLabor Bill obbligherebbe le organizzazioni australiane a rivelare quando pagano i riscattiPregiudizio AI e discriminazione in abbondanza: i Verdi australiani vogliono l'abrogazione della legge sulla sicurezza onlineLa Corte federale approva un risarcimento di 112 milioni di dollari australiani in caso di fallimento del debito robo Digital Transformation Tech Industry Smart Cities Cloud Asha Barbaschow

Di Asha Barbaschow | 22 giugno 2021 — 06:16 GMT (07:16 BST) | Tema: Innovazione