L’AI e l’etica: Il dibattito che ha bisogno per essere avuto

0
143

Che lo sappiamo o no, l’intelligenza artificiale (AI) è già immersa nella vita di tutti i giorni. È presente in un modo feed social media sono organizzati; il modo predittivo ricerche pubblicate su Google; e come servizi musicali come Spotify rendere canzone suggerimenti.

La tecnologia è anche aiutare a trasformare il modo in cui le aziende fanno business.

Commonwealth Bank of Australia, per esempio, ha applicato AI analizzare 200 miliardi di punti di dati per liberare più tempo di modo che il suo cliente addetti al servizio possono concentrarsi sul fare esattamente ciò che il titolo suggerisce: l’assistenza ai clienti. Come risultato, la banca ha visto un 400% di sollevamento nel coinvolgimento del cliente.

IBM utilizza la tecnologia per conservare Australia iconico spiagge da lavare via. Gli scienziati stanno utilizzando le funzionalità di mettere il loro tempo per affrontare l’erosione costiera, piuttosto che sulla mappatura, che richiede molto tempo.

Secondo Data61 scienziato principale in strategia e lungimiranza Stefan Hajkowicz, AI crea una “finestra di capacità di risoluzione dei problemi”.

“AI sta per essere in grado di salvare molte persone dal cancro, migliorare la salute mentale di AI-abilitato sessioni di consulenza, che contribuirà a ridurre gli incidenti stradali-ci sono enormi vantaggi in futuro, per la vita a causa di AI”, ha detto.

“L’umanità in Australia disperatamente bisogno. AI sta per essere critico per la risoluzione dei dilemmi nel settore sanitario, per esempio, dove la spesa sanitaria continua a crescere a ritmi insostenibili. AI sta per essere cruciale tecnologia che sta andando per aiutare praticamente in ogni settore della nostra società.”

Una PwC rapporto pubblicato nel 2017 previsto che AI aumenterà il PIL globale del 14% — o $15.7 miliardi entro il 2030.

Cosa non fare

Responsabile della Scuola di Filosofia presso l’Australian National University (ANU) Seth Lazar crede che dato l’impatto che l’IA sarà, non c’è spazio per rendere la tecnologia migliore.

“Ci sono tanti modi in cui possiamo usare gli AI per il bene sociale, ma negli ultimi due anni è diventato evidente che ci sono potenzialmente un sacco di conseguenze non intenzionali — per non parlare di quelli che AI potenzialmente potrebbero essere utilizzati per cattive ragioni — quindi non c’è grande richiesta e l’interesse per lo sviluppo di IA con i nostri valori”, ha detto.

La prova di quando AI è andato storto potrebbe essere individuato al momento negli Stati Uniti, quando algoritmi di intelligenza artificiale sono stati utilizzati per fornire raccomandazioni sulle pene detentive. Un rapporto da ProPublica ha concluso che il sistema di AI era un pregiudizio nei confronti di nero imputati in quanto costantemente raccomandato frasi più lunghe rispetto alle controparti bianche per lo stesso reato.

Vedi anche: intelligenza Artificiale etica politica (TechRepublic)

Nazioni Unite per l’educazione, la scienza e la cultura dell’Organizzazione (UNESCO) ha recentemente accusato Siri di Apple, Microsoft Cortana, e Amazon Alexa, insieme con altre donne-voce assistenti digitali, di rafforzamento “del comune pregiudizi sul genere”.

“Perché il discorso della maggior parte vocale assistenti di sesso femminile, invia un segnale che le donne sono gentile, docile e desiderosi di aiutanti, disponibili con il semplice tocco di un pulsante o con un secco comando vocale, come” hey ” o “OK”. L’assistente non detiene il potere di rappresentanza al di là di ciò che il comandante chiede,” l’avevo Arrossire Se Potessi rapporto delineato.

“Onora i comandi e risponde alle query indipendentemente dal loro tono o di ostilità. In molte comunità, questo rafforza la tenuta comunemente pregiudizi sul genere che le donne sono sottomessi e tollerante di trattamento poveri.”

Un altro esempio potrebbe essere quando Microsoft AI bot, Tay, che è stato originariamente progettato per interagire con le persone online, attraverso informale e giocoso conversazione, finì con l’aspirapolvere buono, cattivo e brutto farmacologiche. Dopo meno di 16 ore di lancio, Tay trasformato in una sfacciata anti-Semite, affermando: “I Nazisti erano di destra”.

Professore di intelligenza artificiale presso l’Università del Nuovo Galles del Sud Toby Walsh ha detto: “Ci sono numerosi esempi di come i nostri algoritmi in grado di ereditare la differenza che esiste nella società che abbiamo, se non stiamo attenti”.

Egli ha osservato, tuttavia, se l’AI è attentamente programmato per porre le domande giuste e progettato da diverse squadre: “e’ molto piu ‘giuste decisioni”.

Per entrambi Lazar e Hajkowicz, la loro più grande preoccupazione esistente AI sono le persone che creano questi sistemi, che dicono sono solo estrarre il valore delle persone che lavorano nella Silicon Valley che provengono da elitario sfondi.

“Uno dei problemi chiave che viene spesso sollevata è che AI è stato costruito da un sacco di giovani maschi bianchi nel 20-30 per fascia di età, perché l’IA forza lavoro”, Hajkowicz detto.

“Penso subito significa che stanno costruendo un IA che è il bias, ma credo valga la pena di uno sguardo in quanto che sta accadendo, e se sono la creazione di intelligenza artificiale che è veramente riflettente di un mondo diverso.”

Edificio etico AI la diversità

Parte della soluzione per aiutare a superare questi pregiudizi sistemici che sono costruiti negli attuali sistemi di intelligenza artificiale, secondo Lazar, è aprire conversazioni sull’etica, — con ingresso da diversi punti di vista, in termini di cultura, di genere, di età e background socio-economico-e come potrebbe essere applicato ai.

“Quello che dobbiamo fare è capire come sviluppare i sistemi che incorporano i valori democratici e di cui abbiamo bisogno per avviare il dibattito in seno alla società Australiana su ciò che vogliamo, di quei valori in essere”, ha detto.

“È solo questione di costante revisione e la revisione, e riconoscendo che si evolvono come società e speriamo di evolvere per diventare moralmente migliore.”