Il ministro del digitale australiano evita di legiferare sull'etica dell'IA e rimarrà un quadro volontario

0
175

Aimee Chanthadavong < p class="meta"> Di Aimee Chanthadavong | 28 luglio 2021 — 01:15 GMT (02:15 BST) | Argomento: innovazione

Il ministro australiano per la pensione, i servizi finanziari e l'economia digitale Jane Hume ha assicurato che il quadro etico dell'IA del paese rimarrà volontario per il prossimo futuro.

Come parte del suo discorso durante l'evento virtuale CEDA AI Innovation in Action di martedì, Hume ha spiegato che esistevano quadri normativi sufficienti e che un altro non sarebbe stato necessario.

“Abbiamo già un quadro normativo molto forte; abbiamo già leggi sulla privacy, abbiamo già leggi sui consumatori, abbiamo già un commissario per i dati, abbiamo già un commissario per la privacy, abbiamo un regolatore di cattiva condotta. Abbiamo tutti quei guardrail che già siedono sul modo in cui gestiamo le nostre attività”, ha detto a ZDNet.

“L'intelligenza artificiale è semplicemente una tecnologia che viene imposta a un'azienda esistente. È importante che la tecnologia venga utilizzata per risolvere i problemi. I problemi in sé non sono cambiati, quindi le nostre normative devono certamente essere abbastanza flessibili da adattarsi ai cambiamenti tecnologici…  vogliamo per assicurarsi che non ci sia nulla nei regolamenti e nella legislazione che impedisca il progresso della tecnologia.

“Ma allo stesso tempo, la creazione di nuovi regolamenti per la tecnologia, a meno che non ne vediamo un caso d'uso, è qualcosa che saremmo riluttanti a fare, a legiferare troppo e a prescrivere troppo.”

Il governo federale ha sviluppato il quadro etico nazionale per l'IA nel 2019, a seguito della pubblicazione di un documento di discussione di Data61, il braccio di innovazione digitale della Commonwealth Scientific and Industrial Research Organization (CSIRO).

Il documento di discussione ha evidenziato la necessità che lo sviluppo dell'IA in Australia sia avvolto da un quadro sufficiente per garantire che nulla venga imposto ai cittadini senza un'adeguata considerazione etica.

Il quadro è costituito da otto principi etici: Benessere umano, sociale e ambientale; valori incentrati sull'uomo rispetto ai diritti umani, alla diversità e all'autonomia degli individui; equità; tutela della privacy e sicurezza dei dati; affidabilità e sicurezza in conformità con la destinazione d'uso dei sistemi di IA; trasparenza e spiegabilità; contestabilità; e responsabilità.

Hume crede che i principi siano stati progettati in modo tale da renderli “tipo universali” e quindi l'industria sarebbe disposta ad adottarli volontariamente.

“Non c'è niente là dentro con cui le persone si sentirebbero a disagio, non c'è niente che sia troppo prescrittivo… queste sono tutte cose che ci aspetteremmo. Penso che non ci sia niente là dentro che sia particolarmente oneroso”, ha detto.

Mentre sviluppare questi principi è una cosa, applicarli può essere completamente diverso, ha ammesso Hunt.

“Devi avere le giuste strutture di governance, per esempio. Ma devi avere le giuste strutture di governance nella tua organizzazione per molte cose, la sicurezza sul lavoro, ad esempio, è un buon esempio”, ha affermato.

“Penso che vorremmo vedere l'industria in generale, qualunque sia l'industria che sta adottando le tecnologie AI, aderire a tali framework, volontariamente, piuttosto che avere qualcosa che è imposto dall'alto”.

Per Microsoft, ha adottato volontariamente il framework AI sviluppando una struttura di governance interna “per consentire il progresso e le regole di responsabilità per standardizzare i requisiti, la formazione e le pratiche di AI responsabili per aiutare i nostri dipendenti ad agire secondo i nostri principi e a riflettere profondamente sugli impatti dei sistemi AI “, ha dichiarato durante l'evento la direttrice degli affari aziendali di Microsoft Australia Belinda Dennett.

Microsoft è stata una delle prime aziende a mettere le mani avanti per testare i principi etici dell'IA, per assicurarsi che potessero essere tradotti in scenari del mondo reale.

Le altre aziende erano National Australia Bank, Commonwealth Bank, Telstra e Flamingo AI.

All'inizio di questo mese, CBA ha rivelato che testare i principi etici durante la creazione e la progettazione della sua funzionalità dell'app Commbank Bill Sense ha fornito informazioni su come la banca potrebbe applicare l'IA responsabile su larga scala.

“È stato bello vederlo i principi dell'IA si adattavano perfettamente ai quadri di controllo e governance che la banca aveva già in atto. Cose come la gestione sicura dei dati, la privacy dei clienti e la trasparenza sono state fondamentali per il modo in cui operiamo da molto prima dell'avvento dell'IA”, Lo ha detto a ZDNet lo scienziato capo delle decisioni della CBA Dan Jermyn.

“Ma il ritmo, la scala e la raffinatezza delle soluzioni di intelligenza artificiale significano che dobbiamo assicurarci di essere in costante evoluzione per soddisfare le esigenze delle nuove tecnologie, motivo per cui la collaborazione con i nostri partner nel governo e nell'industria è così importante.”

< p>Nel tentativo di garantire che l'AI venga applicata in modo responsabile, la banca ha sviluppato uno strumento per rendere più facile per i team di tutta la banca fornire AI in modo sicuro e scalabile, secondo Jermyn.

“Ad esempio, abbiamo sviluppato la capacità di 'IA spiegabile', che rende semplice per tutti i nostri team aziendali comprendere e spiegare i fattori chiave anche dei modelli di deep learning più complessi”, ha affermato.

Ha aggiunto che l'applicazione responsabile dell'IA sarà necessaria poiché CBA continua a utilizzarla come strumento per migliorare l'esperienza del cliente.

“Vediamo l'intelligenza artificiale come un fattore chiave per noi nel fornire un'esperienza fantastica e personalizzata a tutti i nostri clienti, quindi ci impegniamo a garantire di applicarla in modo coerente ed etico”, ha affermato Jermyn. “Mentre continuiamo a far crescere i modi in cui l'intelligenza artificiale ci aiuta a supportare il benessere finanziario dei nostri clienti e delle nostre comunità, è essenziale che lo facciamo in modo responsabile e sostenibile.”

Copertura correlata

La polizia del NSW utilizza l'intelligenza artificiale per analizzare i filmati CCTV L'OMS mette in guardia dall'applicare a tutti gli altri modelli di intelligenza artificiale che utilizzano i dati dei paesi ricchi La Commissione per i diritti umani chiede il congelamento del riconoscimento facciale “ad alto rischio” nuova task force IA

Argomenti correlati:

Australia CXO Digital Transformation Tech Industry Smart Cities Cloud Aimee Chanthadavong

Di Aimee Chanthadavong | 28 luglio 2021 — 01:15 GMT (02:15 BST) | Tema: Innovazione