AI: Bandire gli algoritmi che minacciano i nostri diritti umani, afferma il capo delle Nazioni Unite

0
132

Daphne Leprince-Ringuet

Di Daphne Leprince-Ringuet | 17 settembre 2021 — 15:22 GMT (16:22 BST) | Argomento: Intelligenza artificiale

gettyimages-1232665893.jpg

Poiché non esistono ancora misure di sicurezza per garantire che la tecnologia venga utilizzata in modo responsabile, ha affermato il commissario delle Nazioni Unite, i governi dovrebbero frenare l'intelligenza artificiale con urgenza.

Immagine: picture alliance/Collaboratore/Getty Images

Le richieste di porre un freno all'uso dell'intelligenza artificiale e in alcuni casi di vietare del tutto la tecnologia stanno diventando sempre più forti. Ora il capo delle Nazioni Unite per i diritti umani Michelle Bachelet ha unito la sua voce al coro di esperti che esortano i governi a intraprendere azioni più forti per tenere sotto controllo gli algoritmi, in un nuovo rapporto che raccomanda moratorie sulla vendita e sull'uso dell'intelligenza artificiale per le persone ad alto rischio casi d'uso.

Bachelet ha anche sostenuto il divieto di alcune applicazioni di intelligenza artificiale contrarie al diritto internazionale sui diritti umani, come il punteggio sociale degli individui basato su criteri discriminatori.

Poiché non esistono ancora misure di sicurezza per garantire che la tecnologia venga utilizzata in modo responsabile, ha affermato il commissario delle Nazioni Unite, i governi dovrebbero frenare l'intelligenza artificiale con urgenza. Senza di ciò, gli algoritmi potenzialmente dannosi per i diritti umani continueranno a essere utilizzati senza supervisione, causando ulteriori danni ai cittadini.

Gli algoritmi sono già presenti in ogni aspetto della vita della maggior parte delle persone, ha sottolineato Bachelet, indicando vari sistemi che stanno attualmente partecipando a decisioni che cambiano la vita come chi ottiene servizi pubblici, chi ottiene un lavoro o quali utenti possono vedere e condividere online.

“Non possiamo permetterci di continuare a recuperare l'intelligenza artificiale, consentendone l'uso con limiti o controlli limitati o assenti e affrontando le conseguenze quasi inevitabili sui diritti umani dopo il fatto”, ha affermato Bachelet.

I commenti del commissario delle Nazioni Unite provengono da un rapporto che è stato realizzato dal suo ufficio per indagare su come l'intelligenza artificiale potrebbe avere un impatto sui diritti umani come la privacy, la salute, l'istruzione, la libertà di movimento o la libertà di espressione.

Mentre l'intelligenza artificiale si è rivelata, in larga misura, “una forza per il bene” che può aiutare le società e le economie a superare enormi sfide, il rapporto ha anche evidenziato un impatto “innegabile e in costante crescita” dell'IA su alcuni diritti umani.

Gli algoritmi, ad esempio, possono intromettersi in modo significativo nella privacy degli utenti. I sistemi di intelligenza artificiale ricevono grandi quantità di dati, compresi i dati personali, che incoraggiano le organizzazioni a raccogliere, archiviare ed elaborare informazioni sensibili sui propri utenti o clienti, a volte in modo segreto. I sistemi possono a loro volta essere utilizzati per fare previsioni sulla vita personale delle persone, che vanno dal quartiere in cui vivono ai loro schemi di sonno.

Ci sono diversi settori in cui l'uso di questi sistemi di intelligenza artificiale è particolarmente preoccupante, secondo il rapporto. Includono le forze dell'ordine, in cui gli algoritmi possono influenzare la decisione di arrestare un criminale, così come i servizi pubblici, in cui i modelli di intelligenza artificiale possono aiutare a determinare i diritti al benessere fino alla segnalazione o meno di una famiglia per le visite da parte dei servizi di assistenza all'infanzia.

Sul posto di lavoro, il rapporto ha evidenziato il rischio di utilizzare algoritmi per monitorare e gestire i lavoratori. E online, i sistemi di intelligenza artificiale possono essere utilizzati per supportare le decisioni di gestione dei contenuti, che è strumentale nel decidere il tipo di contenuto a cui ogni utente è esposto.

Per molte di queste applicazioni, il rischio è duplice. Non solo lo stesso sistema di intelligenza artificiale può essere in contrasto con i diritti umani fondamentali come il diritto alla privacy; ma in alcuni casi, quando l'algoritmo è distorto, la tecnologia può anche prendere decisioni discriminatorie.

Ad esempio, i dati utilizzati per informare i sistemi di intelligenza artificiale potrebbero essere distorti rispetto a determinati gruppi o potrebbero semplicemente essere difettosi, obsoleti o irrilevanti, il che a sua volta porta gli algoritmi a prendere decisioni ingiuste. È così che, ad esempio, l'algoritmo utilizzato per prevedere i voti degli studenti nel Regno Unito lo scorso anno ha finito per assegnare voti più alti a coloro che vivono nelle aree più ricche.

Ci sono abbastanza esempi di modelli di intelligenza artificiale che prendono decisioni dannose, e talvolta semplicemente sbagliate, di cui preoccuparsi. “Il rischio di discriminazione legato alle decisioni guidate dall'intelligenza artificiale – decisioni che possono cambiare, definire o danneggiare la vita umana – è fin troppo reale. Ecco perché è necessario una valutazione e un monitoraggio sistematici degli effetti dei sistemi di intelligenza artificiale per identificare e mitigare rischi per i diritti”, ha detto Bachelet.

Il rapporto delle Nazioni Unite ha richiamato l'attenzione, in particolare, sull'uso di algoritmi da parte degli Stati a fini di sorveglianza, e in particolare di tecnologie biometriche come il riconoscimento facciale, che viene utilizzato per identificare le persone in tempo reale e a distanza, con il potenziale per consentire un monitoraggio illimitato di individui.

Ci dovrebbe essere una moratoria sull'uso delle tecnologie biometriche negli spazi pubblici, afferma il rapporto, fino a quando non sarà dimostrato che non ci sono problemi con l'accuratezza dell'algoritmo e che il sistema non ha un impatto discriminatorio.

Spetta ai governi, quindi, attuare le leggi giuste per tenere sotto controllo lo sviluppo di strumenti di intelligenza artificiale che consentano la sorveglianza e altre violazioni dei diritti umani, secondo il commissario delle Nazioni Unite.

All'inizio di quest'anno, ad esempio, la Commissione europea ha presentato una bozza di regole sull'intelligenza artificiale, che catalogava le applicazioni di intelligenza artificiale in base a diversi livelli di rischio. In cima alla piramide c'erano casi d'uso che comportano un “rischio inaccettabile”, che violano i diritti fondamentali e dovrebbero essere vietati.

L'uso del riconoscimento facciale negli spazi pubblici, ha affermato la Commissione europea, dovrebbe essere vietato in quanto viola tali diritti. La sentenza, tuttavia, è arrivata con varie eccezioni che sono state condannate dai gruppi di difesa in quanto consentivano troppe scappatoie.

Privacy

Come rendere la privacy la “killer app” della tua azienda Informazioni di identificazione personale (PII): cosa sono, come vengono utilizzate e come proteggerle Privacy dei dati e la sicurezza dei dati non è la stessa Cyber ​​security 101: proteggi la tua privacy da hacker, spie e governo

Argomenti correlati:

Government Digital Transformation CXO Internet of Things Innovation Enterprise Software Daphne Leprince-Ringuet

Di Daphne Leprince-Ringuet | 17 settembre 2021 — 15:22 GMT (16:22 BST) | Argomento: Intelligenza artificiale