All’interno della scatola nera: la Comprensione AI decisionale

0
160
ai-ml-intro-header.jpg
Immagine: Getty Images/iStockphoto

Le reti neurali, l’apprendimento automatico di sistemi di analisi predittiva, il riconoscimento vocale, il linguaggio naturale, di comprensione e di altri componenti di quello che è generalmente definita come ‘l’intelligenza artificiale (AI) sono attualmente in una fase di boom: la ricerca sta procedendo a ritmo sostenuto, l’attenzione dei media è a un tempo elevato, e le organizzazioni sono sempre più implementazione di soluzioni AI perseguimento dell’automazione-driven efficienza.

La prima cosa da stabilire è che non stiamo parlando, che è la parte umana a livello di IA-spesso definito ‘forte AI’ o ‘artificiale intelligenza generale’ (AGI). Un sondaggio condotto tra i quattro gruppi di esperti, nel 2012/13 da AI ricercatori Vincent C. Müller e Nick Bostrom ha segnalato un 50% di probabilità che AGI sarebbe sviluppato tra il 2040 e il 2050, con un aumento a 90 per cento entro il 2075; la cosiddetta ‘intelligenza’ — che Bostrom definisce come “qualsiasi intelligenza che supera di gran lunga le prestazioni cognitive degli esseri umani in quasi tutti i domini di interesse” – è stato previsto, circa 30 anni dopo il raggiungimento dell’AGI (Questioni Fondamentali dell’Intelligenza Artificiale, Capitolo 33). Questa roba accadrà, e di certo bisogno di attenta considerazione, ma non sta succedendo proprio ora.

Ciò che sta accadendo proprio ora, a un ritmo crescente, è l’applicazione di algoritmi di intelligenza artificiale in modo di processi che possono influenzare significativamente la vita delle persone-al lavoro, a casa e come si muovono attorno. Anche se hype intorno a queste tecnologie si avvicina al ‘picco di aspettativa” (sensu Gartner), c’è un potenziale di mosca nella AI unguento: il funzionamento di molti di questi algoritmi non sono soggetta a controllo, perché sono il proprietario di attività di un’organizzazione o perché sono opachi, per la loro stessa natura.

Se non adeguatamente affrontate, tali preoccupazioni potrebbero aiutare a girare overhyped aspettative per IA in un gioco (Gartner ‘trogolo di disillusione”).

ai-ml-gartner-hype-cycle.jpg

Molti AI-tecnologie correlate si avvicinano, o hanno già raggiunto il “picco di aspettative gonfiate’ in Gartner Hype Cycle, con il gioco-driven “trogolo di disillusione” in agguato.

Immagine: Gartner / Annotazioni: ZDNet

Ecco un esempio: nel Maggio di quest’anno, COMPAS, un proprietario di valutazione dei rischi algoritmo che è ampiamente utilizzato per decidere la libertà o la detenzione degli imputati passando attraverso l’US sistema di giustizia penale è stato affermato dalla online sito di giornalismo investigativo ProPublica essere sistematicamente prevenuto contro gli Afro-Americani rispetto ai bianchi. Anche se Northpointe (la società a scopo di lucro dietro COMPAS) contestato ProPublica dell’analisi statistica, la produzione di ulteriori polemiche, l’uso diffuso di strettamente sorvegliato algoritmi proprietari in settori sensibili come la giustizia penale è una causa di preoccupazione per lo meno.

A volte, la polarizzazione può essere introdotto tramite i dati su cui rete neurale basata su algoritmi sono addestrati. Nel luglio di quest’anno, per esempio, Rachael Tatman, un National Science Foundation Laureato ricercatore presso il Dipartimento di Linguistica dell’Università di Washington, ha rilevato che il riconoscimento vocale di Google di sistema risultati migliori per voci maschili rispetto a quelle femminili, quando i sottotitoli automatici un esempio di video di YouTube, un risultato che gli ha attribuito a ‘sbilanciato training set’ con una preponderanza di maschi altoparlanti. Come Tatman notato, a pochi errato YouTube didascalie, non sta per causare alcun danno, ma simile riconoscimento vocale pregiudizi medica o collegato-applicazioni auto, per esempio, sarebbe un’altra questione.

ai-ml-ecosystem.jpg

Anche se AI è spesso identificata con “deep learning” reti neurali, intelligenza artificiale ecosistema comprende molti tipi di algoritmo.

Immagine: Narrativa Scienza

Le reti neurali come “scatole nere”

Le reti neurali sono un particolare interesse non solo perché sono una componente fondamentale di molti AI applicazioni, tra cui il riconoscimento delle immagini, riconoscimento, comprensione del linguaggio naturale e la traduzione automatica, ma anche perché sono una sorta di “scatola nera” che quando si tratta di chiarire esattamente come i loro risultati sono generati.

Le reti neurali sono così chiamati perché imitano, ad un grado, il modo in cui il cervello umano è strutturato: sono costruiti livelli collegati tra di loro, neurone-come, i nodi e comprendono un livello di input, un livello di output e di un numero variabile di intermedio ‘nascosto’ strati — ‘profonda’ reti neurali semplicemente avere più di un livello nascosto. Gli stessi nodi svolgere relativamente semplici operazioni matematiche, ma tra di loro, dopo l’allenamento, in grado di elaborare inedite di dati e genera risultati corretti basati su ciò che è stato appreso dai dati di training.

ai-ml-neural-network.jpg

La struttura e la formazione di un profondo reti neurali.

Immagine: Nuance

La chiave per la formazione è un processo chiamato ‘indietro di propagazione’, in cui etichettati esempi sono inseriti nel sistema e intermedio-livello di impostazioni sono progressivamente modificati, fino a quando il livello di output offre un’ottima partita e il livello di input.

Una cosa è creare un modello che fornisce risultati precisi con inedite di dati, ma, come discusso in precedenza-in molte applicazioni del mondo reale sarà auspicabile esaminare il processo decisionale interno in dettaglio.

Nils Lenke, Senior Director, Corporate di Ricerca in Nuance, riconosce il problema: “e’ molto interessante e pertinente argomento, perché, rispetto a, per dire, la regola di sistemi basati su reti neurali o altri algoritmi di apprendimento automatico che non sono trasparenti. Non è sempre chiaro ciò che accade all’interno — si lascia che la rete organizzarsi, ma che in realtà significa organizzarsi: non necessariamente dirvi come è fatto”.

Sbirciando all’interno della scatola nera

Questa “scatola nera” che problema è stato affrontato in un recente libro dal MIT Computer Science and Artificial Intelligence Laboratory (CSAIL), che ha esaminato le reti neurali addestrate sul testo-base di dati utilizzando un sistema composto da due moduli — un ‘generatore’ e un ‘encoder’. Il generatore di estratti di segmenti chiave del testo i dati di training, dando punteggi più alti a breve, coerente stringhe; questi vengono poi passati per l’estrattore, che svolge l’attività di classificazione. L’obiettivo è quello di massimizzare sia il generatore di punteggi e la precisione dell’estrattore previsioni.

Per valutare come funziona questo sistema, uno della formazione di set di dati, i ricercatori hanno usato un set di circa 1.500 giudizi da un sito web dedicato alla birra. Un migliaio di questi giudizi erano stati annotati a mano per indicare la corrispondenza tra particolare frasi e revisore dei punteggi (da 1 a 5) per l’aspetto, l’odore e il palato. Se il generatore/estrattore di rete neurale è riuscito a individuare le stesse frasi e metterle in relazione con lo stesso revisore valutazioni, poi sarebbe un esercizio umano, come la sentenza.

I risultati sono stati impressionanti, con la rete neurale che mostrano alti livelli di accordo con l’umano commentatori sull’apparenza (96.3%) e l’odore (95.1%), anche se è leggermente meno passo sicuro il più tenace concetto di palato (80.2%).

Secondo il MIT, i ricercatori hanno applicato le loro motivazioni-metodo di estrazione di dati medici, sia il testo-base (rapporti di patologia mammaria biopsie) e immagine (mammografia), anche se non pubblicati rapporto di lavoro è ancora disponibile.

Un aiuto mano umana

Questi sono sviluppi incoraggianti, ma che cosa fare in presenza di un sistema di intelligenza artificiale non può essere autorizzato a prendere decisioni importanti?

Nuance Nils Lenke delinea le opzioni: “La prima cosa di cui hai bisogno in casi più specifici fiducia misura, in modo non solo si ottiene un risultato dalla rete neurale, ma anche di ottenere una comprensione di come certi è che si ha il giusto risultato. Che possono aiutare a prendere decisioni-non c’è bisogno di ulteriori prove, avete bisogno di un essere umano a guardare il risultato, si può prendere al valore nominale?”

“Allora avete bisogno di guardare i compiti a portata di mano,” Lenke continua. “Per alcuni, non è davvero critica, se non comprendere appieno ciò che accade, o anche se la rete è sbagliato. Un sistema che suggerisce la musica, per esempio: tutto quello che può andare storto, si ascolta noioso pezzo di musica. Ma con applicazioni di tipo enterprise customer service, dove le transazioni sono coinvolti, o computer-assistita la documentazione clinica di miglioramento, quello che noi di solito non c’è, non mettiamo l’IA in isolamento, ma l’abbiamo co-opera con un essere umano.”

ai-ml-nuance-hava.jpg

Umana assistita assistente virtuale (HAVA) distribuito in un cliente di impresa applicazione di servizio.

Immagine: Nuance

“La cura del cliente arena si chiama HAVA, o Umana Assistita Assistente Virtuale”, spiega Lenke. “La cosa interessante qui è che abbiamo qualcosa chiamato “passaggio recupero’: dire che il cliente chiede una domanda, tramite il riconoscimento vocale o digitato l’input da una chat o l’interfaccia web, quindi l’assistente virtuale passa attraverso i fatti e i dati, che potrebbe essere una raccolta di manuali e documenti forniti dalla società — e trova passaggi rilevanti, che si presenta per l’agente umano, che rende la chiamata finale. E ‘ più efficiente, perché l’IA presenta le informazioni pertinenti per lui o lei.”

“Penso che si può vedere da Microsoft, con la sua chat bot che mettere l’IA in una modalità in cui non supervisionato può assumere rischi,” Lenke aggiunge. “Ecco perché crediamo che questa curata modo in cui un uomo guarda il materiale e ha l’ultima chiamata, è il modo giusto di farlo per applicazioni critiche.”

Etica e AI

Molte persone-tra cui Stephen Hawking, Elon Musk e leader AI ricercatori-hanno espresso preoccupazione in merito AI potrebbe sviluppare, con la conseguente creazione di organizzazioni come Aprire AI e di Partenariato AI volti a evitare potenziali insidie.

L’obiettivo di Aprire AI, fondata nel dicembre 2015 e co-presieduto da Elon Musk e Sam Altman, è quello di “anticipo di intelligenza digitale in modo che sia più probabile a beneficio di tutta l’umanità, senza i vincoli di un bisogno di generare un ritorno economico.”

Partnership AI — annunciato nel mese di settembre del 2016, soci fondatori di Amazon, Facebook, Google, IBM e Microsoft, in cerca di sostenere la ricerca e raccomandare le migliori pratiche, anticipo la comprensione del pubblico e la consapevolezza di AI, e di creare una piattaforma di discussione aperta e di impegno.

Più di recente, la Carnegie Mellon University ha annunciato un incremento di $10 milioni di dono da un importante studio legale (K&L Gates) per lo studio di etica politica e di questioni che circondano l’intelligenza artificiale e le altre tecnologie di computing.

Un perfetto esempio del perché l’etica della IA necessità di monitoraggio è venuto in un recente libro dal titolo Automatizzato Inferenza sulla Criminalità utilizzo di Immagini del Volto da due ricercatori dall’Università Jiao Tong di Shanghai. In un inquietante eco di lungo screditata tentativi di correlare la fisionomia con la propensione per la criminalità, il Drago Wu e Xi Zhang costruito quattro classificatori-tra cui un convolutional rete neurale — tramite “il viso di immagini di 1,856 persone reali controllato per la razza, il sesso, l’età e le espressioni del viso, quasi la metà dei quali sono stati condannati”. Gli autori sostengono che “Tutti e quattro i classificatori di svolgere sempre al meglio e produrre prove per la validità delle automatizzato volto-indotta di inferenza sulla criminalità, nonostante la storica controversia che circonda l’argomento”, aggiungendo di aver trovato “alcune discriminanti caratteristiche strutturali, per la previsione di criminalità, come il labbro curvatura, angolo interno dell’occhio a distanza, e il cosiddetto naso-bocca angolo.”

Questa carta è su arXiv pre-server di stampa e non è stato peer-reviewed, ma parlando con la BBC, Susan McVie, Professore di Quantitative Criminologia presso l’Università di Edimburgo, ha osservato che “ciò Che questa ricerca potrebbe essere il ritiro è di stereotipi che portano a gente che viene raccolto dal sistema di giustizia penale, piuttosto che il rischio di offendere qualcuno…non C’è alcuna ragione teorica che il modo in cui qualcuno guarda dovrebbe rendere un criminale.”

Qualsiasi AI-driven rinascita dell’idea che la criminalità può essere desunto dal viso le immagini, sarebbe particolarmente utile, dato l’attuale clima politico su entrambi i lati dell’Atlantico.

AI implementazione in azienda

AI è chiaramente un campo in via di sviluppo, ma che non ha smesso di organizzazioni andando avanti e l’attuazione di esso, anche se sono spesso non pienamente consapevoli che essi hanno fatto. Nel luglio di quest’anno, la Narrazione della Scienza, che si sviluppa avanzate del linguaggio naturale-generazione (NLG) sistemi, ha presentato i risultati di un sondaggio di 235 dirigenti aziendali che coprono la distribuzione di AI-powered applicazioni all’interno delle loro organizzazioni. Titolo risultati da Outlook sull’Intelligenza Artificiale nell’Impresa 2016 sono stati:

AI adozione è imminente, nonostante marketplace confusione: anche se solo il 38 per cento del gruppo di indagine ha confermato che erano in uso AI, l ‘ 88 per cento del resto, ha effettivamente utilizzare AI tecnologie come predictive analytics, sistemi automatizzati di informazione e di comunicazione e il riconoscimento vocale/risposta.

Predictive analytics è dominante dell’azienda: il 58 per cento degli intervistati ha utilizzato il data mining, statistiche, di modellazione e di machine learning per analizzare i dati e fare previsioni; in secondo luogo, a circa il 25 per cento, è stato automatizzato di informazione e/o comunicazione e il riconoscimento vocale/risposta.

La mancanza di dati science talent continua a colpire le organizzazioni: il 59 per cento degli intervistati denominato ‘carenza di dati science talent’ come la principale barriera alla realizzazione di valore da loro tecnologie big data. Quasi tutti gli intervistati (95%), che ha indicato sono abili a utilizzare i big data per risolvere problemi di business o di generare intuizioni utilizzato anche AI tecnologie.

Aziende che generare il massimo valore dai loro investimenti in tecnologia, fanno dell’innovazione una priorità: il 61 per cento degli intervistati che hanno una strategia di innovazione usato AI identificare opportunità di dati che altrimenti sarebbe perso, rispetto a solo il 22 per cento degli intervistati, senza una strategia.

Ci sono certamente più aziende coinvolte in AI che mai, e anche un emergente ‘pila’, come la recente e paesaggio infografica da Bloomberg Beta:

ai-ml-landscape.jpg
Immagine: Bloomberg Beta

Nella loro analisi, Bloomberg Beta Shivon Zilis e James Cham si noti che la versione 3.0 del paesaggio contiene un terzo in più aziende rispetto a quello di due anni fa, e che “ci si sente ancora più inutile cercare di essere esaustiva, dal momento che questo solo graffi la superficie di tutte le attività”. Questo deve essere previsto in un’area tecnologica che corse per il picco di euforia, e ci saranno un sacco di più start-up e attività di M&A come il mercato matura. Ma che AI startup continuerà a prosperare? Secondo la Bloomberg Beta autori, “le Aziende vediamo entrare con successo, una traiettoria a lungo termine in grado di confezionare la loro tecnologia come un nuovo problema-specifica applicazione per le imprese o semplicemente trasformare un settore a se stessi come un nuovo concorrente.”

Outlook

Nel breve termine, come AI probabilità di progresso?

“Ci sarà più varianti di reti neurali, e la gente pagherà più attenzione a ciò che realmente accade durante il trattamento,” dice Nuance Nils Lenke. “Si’ ll desidera visualizzare ciò che accade sui livelli e modalità di interazione con i dati e rendere più trasparente il pezzo di prova del led per la cui decisione, in modo che la rete non solo produce un risultato, ma anche i punti delle prove e il processo di ragionamento.”

Lenke sottolinea, inoltre, che AI non sempre significa reti neurali: “anche Noi AI basata sulla rappresentazione della conoscenza e sistemi basati su regole, e per alcuni importanti aspetti, potrebbe essere meglio andare con sistemi basati su regole dove hai il pieno controllo su quali regole ci sono e che non ci sono. Puoi avere nella propria cassetta degli attrezzi per le cose in cui ha senso, in cui le regole possono essere facilmente codificata da un essere umano.”

AI sta diventando relativamente semplici da implementare, con i dati, gli algoritmi e le risorse di calcolo, tutti sempre disponibili. Ma c’è sempre il fattore umano da considerare: gli esseri umani possono chiedere le domande sbagliate, uso imperfetto dati di allenamento, e di accettare uscita da algoritmi senza indagare la provenienza.

Dovremmo temere superintelligent AI? Forse, nel corso del tempo. Ma più pressantemente, dovremmo prestare attenzione a quello che la gente potrebbe fare con l’odierna tecnologia al. O come Bloomberg Beta Zilis e Cham: “Nei prossimi anni, il pericolo non è quello che vediamo in distopica film di fantascienza. Il vero pericolo della macchina di intelligenza è che i dirigenti prenderà decisioni sbagliate su ciò che macchina capacità di intelligence per costruire”.