Consigli per i tecnologi sulla promozione AI etica

0
153

L’etica si profila come un problema fastidioso quando si tratta di intelligenza artificiale (AI). Da dove viene AI bias di primavera, specialmente quando è involontario? Sono aziende prestando abbastanza attenzione a come si immergono con la massima forza in AI di sviluppo e di distribuzione? Stanno facendo qualcosa su di esso? Fanno anche sapere che cosa fare al riguardo?

airport-chicago-ohare-cropped-nov-2015-photo-by-joe-mckendrick.jpg

Foto: Joe McKendrick

Per la disperazione di polarizzazione e di conseguenze non intenzionali di AI, si sta facendo strada nelle descrizioni del lavoro di tecnologia, manager e professionisti, soprattutto imprenditori a rivolgersi a loro per orientamento e di giudizio. L’unità etici AI mezzi di rafforzare il ruolo dei tecnologi nel business, come descritto in uno studio di 1,580 dirigenti e 4.400 i consumatori da Capgemini, Istituto di Ricerca. L’indagine è stata in grado di stabilire connessioni dirette tra AI etica e la crescita del business: se i consumatori il senso di una società è dare lavoro AI eticamente, che continuino a tornare; non hanno senso, non etico AI pratiche, la loro attività è andato.

La pressione della concorrenza è la ragione che le imprese stanno spingendo AI suoi limiti e il rischio di attraversamento etico linee. “La pressione di implementare AI sta alimentando le questioni etiche,” Capgemini autori, guidati da Anne-Laure Thieullent, amministratore delegato di Capgemini Artificial Intelligence & Analytics Gruppo, di stato. “Quando abbiamo chiesto ai dirigenti perché i problemi etici derivanti da AI sono un problema crescente, il top-ranked ragione è stata la pressione per attuare AI.” Trenta-quattro per cento ha citato questa pressione per rimanere davanti AI trend di.

Un-altro-terza relazione a questioni etiche non sono stati considerati, mentre la costruzione di sistemi di intelligenza artificiale, l’indagine mostra. Un altro 31% ha detto il loro problema principale era la mancanza di persone e di risorse. Questo è dove i manager e i professionisti possono fare la differenza.

Capgemini team ha identificato i problemi con cui i manager e i professionisti devono affrontare:

“La mancanza di etica AI codici di condotta o di capacità di valutare la deviazione da esso la Mancanza di una formazione adeguata per sviluppatori di sistemi di intelligenza artificiale
Questioni etiche non sono stati considerati durante la costruzione di sistemi di intelligenza artificiale
Pressione di attuare con urgenza AI senza affrontare adeguatamente le questioni etiche
La mancanza di risorse (fondi, persone, tecnologia) dedicato alla etico AI sistemi”

Thieullent e i suoi co-autori hanno consigli per manager e professionisti, l’assunzione di un ruolo di leadership in termini di AI etica:

Fornire agli utenti un maggiore controllo e la possibilità di fare ricorso: “Questo significa che la costruzione di politiche e processi in cui gli utenti possono chiedere spiegazioni AI basata su decisioni”.

Apportare AI sistemi trasparenti e comprensibili per guadagnare la fiducia degli utenti: “Il team di sviluppo di sistemi dovrà fornire la documentazione e le informazioni di spiegare, in termini semplici, come determinati AI-base sono prese le decisioni e come essi possono influenzare un individuo. Queste squadre anche necessario documentare i processi per insiemi di dati, come pure i sistemi decisionali.”

Di buone prassi di gestione dei dati e ridurre i potenziali distorsioni nei dati: “Mentre la direzione generale sarà
responsabile della definizione di buone pratiche di gestione dei dati, cade la data di ingegneria e scienza di dati e AI team per garantire che tali pratiche sono seguite attraverso. Queste squadre dovrebbero integrare “privacy by design” principi nella progettazione e nella fase di costruzione e assicurano l’affidabilità, ripetibilità e verifica dell’intero ciclo di dati (dati grezzi, dati di training, i dati di prova, etc.).”

Come parte di questo, i responsabili IT hanno bisogno di “controllare l’accuratezza, la qualità, la robustezza e potenziali pregiudizi, incluso il rilevamento delle minoranze sottorappresentate o eventi/motivi”, come pure “costruire adeguati dati pratiche di etichettatura e di revisione periodica, negozio di responsabilità, in modo che si è reso disponibile per le attività di audit e la ripetibilità delle valutazioni.”

Tenere stretto controllo sui dataset: “Attenzione a garantire che i set di dati esistenti non creare o rafforzare quelle esistenti pregiudizi. Per esempio, l’identificazione pregiudizi esistenti nel set di dati attraverso l’uso di quelli esistenti AI strumenti o attraverso specifici controlli statistici e modelli di set di dati.” Questo include anche “l’esplorazione e la distribuzione di sistemi per controllare e correggere pregiudizi esistenti nel set di dati, prima di sviluppare algoritmi,” e “condurre sufficiente pre-release prove e post-rilascio di monitoraggio per identificare, regolare, e mitigare qualsiasi esistente pregiudizi”.

Utilizzare gli strumenti della tecnologia per costruire l’etica AI: “Uno dei problemi riscontrati da coloro attuazione AI è la scatola nera la natura di apprendimento profondo e reti neurali. Questo rende difficile per creare trasparenza e di controllo per pregiudizi.” Sempre più, alcune aziende di distribuzione di tecnologia e costruzione di piattaforme che aiutano a combattere questo. Thieullent e il suo co-autori punto a favorire l’evoluzione del mercato, come IBM AI OpenScale, strumenti open source, e le soluzioni AI startup che possono garantire una maggiore trasparenza e controllo per pregiudizi.

Creare etica strutture di governance e garantire la responsabilità per sistemi di intelligenza artificiale: “Creare ruoli chiari e strutture, assegnare etico AI la responsabilità delle persone e squadre e dare loro.” Questo può essere realizzato da “adeguare strutture di governance esistenti per costruire responsabilità all’interno di alcune squadre. Per esempio, l’attuale etica del piombo (ad esempio, il Chief Ethics Officer) l’organizzazione potrebbe essere affidata la responsabilità di anche alla ricerca di problemi etici AI.”

Inoltre, è importante assegnare “alti dirigenti che vorresti essere ritenuti responsabili per le questioni di ordine etico AI.” Thieullent e Capgemini team raccomanda, inoltre, di “costruzione di interni ed esterni comitati responsabile per la distribuzione AI eticamente, che sono indipendenti e quindi in nessuna pressione a correre per IA distribuzione.”

Costruire i vari team per garantire la sensibilità verso l’intero spettro delle questioni etiche: “è importante coinvolgere i vari team. Per esempio, le aziende hanno bisogno non solo di costruire un numero maggiore di dati diverse squadre (in termini di genere e di etnia, ma anche attivamente di creare inter-disciplinari team di sociologi, studiosi del comportamento e UI/UX designer che può fornire ulteriori prospettive, durante AI design.”

Argomenti Correlati:

Priorità

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software