L'utilizzo dei dati raccolti da individui in paesi ad alto reddito potrebbe non funzionare altrettanto bene se la soluzione sanitaria dovesse essere utilizzata in contesti a basso e medio reddito, secondo una nuova guida pubblicata dall'Organizzazione mondiale della sanità (OMS) .
“I sistemi di intelligenza artificiale devono essere progettati con cura per riflettere la diversità dei contesti socioeconomici e sanitari ed essere accompagnati da formazione in competenze digitali, coinvolgimento della comunità e sensibilizzazione. I sistemi basati principalmente sui dati degli individui nei paesi ad alto reddito potrebbero non funzionare bene per le persone in contesti a basso e medio reddito”, ha scritto l'OMS nel suo rapporto Ethics and governance of artificial intelligence for health (PDF).
“Gli investimenti nazionali nell'IA e nelle infrastrutture di supporto dovrebbero quindi aiutare a costruire sistemi sanitari efficaci evitando l'intelligenza artificiale che codifica pregiudizi che sono dannosi per la fornitura e l'accesso equo ai servizi sanitari.”
L'OMS ha aggiunto che se non vengono prese “misure appropriate” durante lo sviluppo di soluzioni sanitarie basate sull'intelligenza artificiale, potrebbero verificarsi “situazioni in cui le decisioni che dovrebbero essere prese da fornitori e pazienti vengono trasferite a macchine, che minerebbero l'autonomia umana” e porterebbero a servizi sanitari essere erogati in “contesti non regolamentati e da fornitori non regolamentati, che potrebbero creare sfide per la supervisione del governo sull'assistenza sanitaria”.
Sottolinea inoltre che altri rischi potrebbero includere la raccolta e l'uso non etici di dati sanitari; bias essendo codificato in algoritmi; e rischi per la sicurezza dei pazienti, la sicurezza informatica e l'ambiente.
Leggere: Etica dell'IA: vantaggi e rischi dell'intelligenza artificiale
Il rapporto è il prodotto di 18 mesi di consultazioni tra un gruppo di esperti in etica, tecnologia digitale, diritto e diritti umani, nominati dall'OMS. Ha rilevato che l'IA ha un enorme potenziale per aiutare a migliorare l'assistenza sanitaria e la medicina in tutto il mondo, ma solo se le considerazioni etiche e i diritti umani sono posti al centro della progettazione, dello sviluppo e dell'implementazione.
“Come tutte le nuove tecnologie, l'intelligenza artificiale ha un enorme potenziale per migliorare la salute di milioni di persone in tutto il mondo, ma come tutte le tecnologie può anche essere utilizzata in modo improprio e causare danni”, ha affermato il dott. Tedros Adhanom Ghebreyesus, direttore generale dell'OMS. “Questo nuovo importante rapporto fornisce una guida preziosa per i paesi su come massimizzare i benefici dell'IA, riducendo al minimo i suoi rischi ed evitando le sue insidie”.
Il rapporto ha spiegato che l'IA potrebbe potenzialmente migliorare la diagnosi e l'assistenza clinica, migliorando la ricerca sanitaria e lo sviluppo di farmaci e assistendo nell'implementazione di diversi interventi di sanità pubblica, come la sorveglianza delle malattie, la risposta alle epidemie e la gestione dei sistemi sanitari.
Allo stesso tempo, l'utilizzo di strumenti basati sull'intelligenza artificiale potrebbe aiutare i governi a estendere i servizi sanitari alle popolazioni meno abbienti, migliorare la sorveglianza della salute pubblica e consentire agli operatori sanitari di assistere meglio i pazienti e di impegnarsi in cure complesse, secondo il rapporto disse.
Per saperne di più: AI ed etica: il dibattito necessario
Come parte del rapporto, l'OMS ha sviluppato sei principi che spera verranno utilizzati come base per i governi, gli sviluppatori di tecnologia, le aziende e le organizzazioni della società civile durante lo sviluppo dell'IA per la salute. Questi includono consentire agli esseri umani di avere autonomia sui sistemi sanitari e sulle decisioni mediche, garantendo nel contempo la protezione della privacy e della riservatezza; il benessere e la sicurezza delle persone sono mantenuti; garantire la trasparenza sullo sviluppo, la progettazione e l'implementazione della tecnologia AI; L'IA per la salute è progettata per incoraggiare l'inclusione e l'equità; Le applicazioni AI sono reattive e sostenibili; e che le parti interessate coinvolte nella progettazione, sviluppo e implementazione delle tecnologie di intelligenza artificiale mantengano la responsabilità e la responsabilità.
Alla fine dello scorso anno, il World Economic Forum ha lanciato un rapporto che descriveva in dettaglio come le organizzazioni potrebbero adottare un approccio etico alla progettazione della tecnologia e all'utilizzo responsabile.
L'etica in base alla progettazione: un approccio organizzativo all'uso responsabile della tecnologia ha illustrato in dettaglio tre principi di progettazione che possono essere integrati per promuovere un comportamento etico quando si tratta di creare, implementare e utilizzare la tecnologia.
Questi principi includevano l'attenzione tempestiva alle implicazioni etiche della tecnologia attraverso la creazione di consapevolezza attraverso la formazione e i canali di comunicazione interna, lo sviluppo di “spinte” organizzative come le liste di controllo e l'utilizzo di promemoria di due diligence e l'intreccio di valore ed etica nella cultura aziendale.
Copertura correlata
Il rapporto rileva un sorprendente disinteresse per un uso etico e responsabile dell'IA tra i leader aziendaliDati, analisi, apprendimento automatico e IA nell'assistenza sanitaria nel 2021 Normativa AI trapelata: cosa significa per gli Stati UnitiIl problema con l'intelligenza artificiale: perché abbiamo bisogno di nuove leggi per impedire agli algoritmi di rovinare la nostra vita Questa startup vuole correggere la tua intelligenza artificiale distorta, un set di dati alla volta
Argomenti correlati:
Intelligenza artificiale CXO Digital Transformation Tech Industry Smart Cities Cloud