Razziale e pregiudizi di genere: Può essere purificati dall’AI?
Apprendimento automatico di modelli sono a fare previsioni e conclusioni che mostra tutti i segni sistemici di bias. Scott Fulton discute con Karen Forrest un argomento difficile: Se abbiamo corretto il ML di dati, che potranno essere utilizzabile? Leggi di più: https://zd.net/2YVYkuD
Per decenni, Hava Siegelmann ha esplorato l’esterno raggiunge di calcolo con grande curiosità e grande convinzione.
La convinzione si presenta nella convinzione che ci sono forme di computing che vanno al di là di quella che ha dominato per settant’anni, la cosiddetta macchina di von Neumann, in base ai principi stabiliti da Alan Turing nel 1930. Lei ha a lungo sostenuto il concetto di “Super-Turing” computer con nuove funzionalità.
E la curiosità si presenta in varie forme, tra cui il suo più recente lavoro, “neuromorfi computing”, una forma di calcolo che possono approssimi il modo in cui le funzioni cerebrali.
Siegelmann, in possesso di due appuntamenti, uno con l’Università del Massachusetts ad Amherst, come professore di computer science, e uno come un program manager presso la Defense Advanced Research Projects Agency, DARPA, si sedette con ZDNet per discutere dove neuromorfi computing va avanti, e la visione può portare sull’intelligenza artificiale, soprattutto perché l’IA riesce e non riesce.
Oggi deep learning forma di AI, per tutti i suoi successi, ha gravi lacune, in Siegelmann vista.
“Ci sono molti problemi con il deep learning”, dice Siegelmann. “Potete vedere la fragilità di questo: Se si è presentato con una nuova situazione, non so cosa fare. La generalizzazione è molto sottile, con un profondo apprendimento; solo quando i nuovi dati ha le stesse proprietà statistiche come la formazione e la validazione dei dati sarà generalizzazione di lavoro.”

Hava Siegelmann
DARPA
Che la critica di oggi IA non è con qualsiasi mezzo unico per Siegelmann, ma il suo percorso che la realizzazione è un po ‘ diverso da altri ricercatori. In quasi trent’anni di lavoro pubblicato, Siegelmann ha sottolineato come AI è ostacolata dalla natura limitata del computer, che AI è costruito.
La macchina di von Neumann, ispirato da Turing primi a scrivere su “universal computer”, e lo studio della neurofisiologia di Warren McCulloch e Walter Pitts nel 1940, si basa su un programma che è stato progettato e quindi eseguire. Il che significa che il computer non si adatta, dice Siegelmann.
E che non può essere una buona base per intelligenza, poiché tutte le forme di vita nel mondo reale, la mostra di adattamento a un ambiente che cambia.
Anche: Neuromorfi computing trova nuova vita in macchina di apprendimento
Un coerente filo in Siegelmann lavoro è la tesi che Turing stesso si rese conto di questo. Siegelmann ha prodotto qualcosa come una storia segreta di Turing, mostrando che non era soddisfatto con la digitale di base del computer e ha voglia di qualcosa di altro.
“Turing vera passione — più a trovare una macchina appropriata per descrivere la natura e l’intelligenza, è stata quasi universalmente trascurato,” Siegelmann ha scritto nel 2013, la carta “di Turing sulla Super-Turing e adattabilità.” L’industria dei computer ignorato Turing fascino con il cervello per 70 anni, ricorrendo invece di limitarsi a realizzare un po ‘ meglio le versioni di computer digitale design ha teorizzato nel 1930.
Altro che Geoffrey Hinton, uno dei tre vincitori di quest’anno ACM Turing Award for lifetime achievement, e di una preside di apprendimento profondo, sembra d’accordo con Siegelmann di Turing, almeno in parte.
Come Hinton ha dichiarato in un’intervista nel 2017, “penso che nei primi giorni, negli anni 50, la gente come [Giovanni] di von Neumann e di Turing […] sono stati molto più ispirato dal cervello. Purtroppo, entrambi sono morti troppo giovani, e la loro voce non è stato ascoltato”.
Sieglemann la convinzione e la curiosità ha prodotto uno stuolo di lavoro ultimamente sulla cosiddetta spiking neural nets, una forma di neuromorfi computing. Tali reti di neuroni artificiali solo eseguire i lavori quando uno stimolo che li rende picco di potenziale elettrico. Il campo, ideato per la prima volta da Caltech professore Carver Mead nei primi anni ‘ 80, è stata un’ossessione per le imprese, tra cui l’IBM per anni, con poco risultato pratico.
Inoltre: AI è cambiare l’intera natura del compute
Chip gigante Intel ha un pluriennale progetto chiamato “Loihi” per rendere chiodare reti di vitali, anche se gli scettici non mancano. Facebook è Yann LeCun, che ha aperto la strada allo sviluppo di convolutional reti neurali, ha detto che non ci sono vie alternative al treno spiking neural networks.
Siegelmann è consapevole della critica e si impegna ci sono problemi, e tiene lontano dai picchi di reti fino a poco tempo fa. “Sono un po’ bloccato in un minimo locale”, dice di chiodare neurone ricercatori. “Non so perché non sono stati incisivi esplorare nuove possibilità”, dice.
Come per Siegelmann, i suoi motivi per esplorare chiodare sono due volte. “Uno è che si parla sempre di computazione neurale, ma non riusciamo a capire come funziona; e due, se vogliamo calcolare a bordo, con il minimo consumo di batteria, chiodare i neuroni in grado di lavorare meglio per il che, in ultima analisi, [di reti neurali artificiali.].”
Siegelmann è convinto che ci sono indizi di come il cervello funzioni in modo che l’energia è gestita in un sistema di chiodare i neuroni. “Il tema dell’energia è fondamentale per tutto”, lei sostiene.
“Realistica paradigmi di calcolo richiede la considerazione dei vincoli di risorse e di energia è il principale vincolo”, spiega.
In Siegelmann vista, chiodare i neuroni in modelli standard sono troppo concentrato sul picco di energia che fa di un neurone di contribuire a un’uscita dalla rete. Non viene prestata sufficiente attenzione a un altro fattore, l’inibizione di picchi di concorrenti neuroni.
Inibizioni sono ciò che permettono alcuni segnali tranquilla altri segnali, per evitare un costante valanga di attivazione neurale. “Chiodare le reti non possono assumere solo i neuroni eccitatori,” lei sostiene.
In un documento nel Maggio di quest’anno, Siegelmann teorizzato che i neuroni nelle fasi iniziali di un chiodare rete di competere con altri neuroni mediante l’invio di “inibitorio” segnali. Che carta, piombo-scritto da Daniel J. Saunders di laboratorio che Siegelmann istituito presso U Mass., Biologicamente Ispirato Neurali e Sistemi Dinamici di Laboratorio, ha dimostrato che c’è qualcosa di importante andando su “locale” con gruppi di neuroni. È qualcosa che non è a differenza di “elucubrazioni” in convolutional rete neurale di apprendimento automatico, che apprendere le caratteristiche dei dati in vari luoghi di un campione di dati avendo segnali che una zona più volte sottolineato in rete. (Siegelmann alla ricerca hanno partecipato a U di Massa., prima di venire a DARPA nel 2016, e il lavoro è correlato al suo lavoro per la DARPA.)
Inoltre: Chip mondo che cerca di fare i conti con promesse e pericoli di AI
Tali connesse localmente spiking neural networks, come vengono chiamati, non può ancora competere con deep learning migliori risultati, ma conserva importanti aspetti della “topologia” di neuroni nel cervello, dice Siegelmann. I neuroni inibitori, in concerto con quelli che vengono chiamati “cellule glia,” le cellule non-neuronali del sistema nervoso, che forma “piscine di energia.”
Saunders, Patela, Hazana, Siegelmanna, Kozmaa, “Localmente Connesso Spiking Neural Networks per potersi Funzione di Apprendimento,” Maggio 2019.
“L’uso di più di un tipo di inibitore è cruciale per la comprensione del cervello-come dinamica”, dice Siegelmann. “Esso consente di sviluppo auto-assemblaggio in piccoli gruppi, in” una strutturale fondamentale caratteristica tipica spiking neural nets.
Siegelmann non è il solo a essere un nuovo convertito a chiodare i neuroni. All’inizio di quest’anno, Terry Sejnowski del Salk Institute di La Jolla, in California, che è un pioniere in macchina di apprendimento ed è stato un mentore per Geoffrey Hinton, si unì con i ricercatori nel laboratorio di pubblicare ricerca su chiodare reti, in cui l’apprendimento è stato compiuto tramite un trasferimento di parametri da un ordinario profonda rete di apprendimento. Sejnowski detto a ZDNet, lui è entusiasta circa il potenziale per chiodare le reti lungo la strada.
Nonostante la sua critica di apprendimento profondo, Siegelmann ha prodotto un lavoro che può spiegare alcuni dei suoi risultati. Nel 2015 la carta di Natura rivista chiamata “Il Panorama Mondiale della Cognizione,” Siegelmann e gli altri nel suo laboratorio hanno mostrato che i dati fMRI, che i modelli di flusso di sangue nel cervello, rivela una gerarchia di attività cerebrale che non è a differenza di gli strati successivi di attività di profondo reti neurali che contribuiscono a un “gradiente” di più elevati livelli di astrazione.
In una carta da questo mese di Maggio, dal titolo “Deep Neural Networks Astratto Come gli esseri Umani,” Siegelmann costruito su del 2015 di ricerca, prevedendo quanto in profondità i sistemi di apprendimento eseguire su di inferenza test. “I nostri risultati rivelano parallels nel meccanismo di astrazione in DNNs e quelli del cervello umano”, ha scritto Siegelmann e colleghi.
Anche: Intel neuro guru sbatte apprendimento profondo: “non è l’apprendimento”
Ancora, c’è il fastidioso problema che deep learning è statico: pesi non si adattano a nuovi dati in natura. Che difetto si tratta di un manufatto, in Siegelmann vista, il fatto che la macchina di apprendimento è predisposto all’interno della macchina di von Neumann, e la statica, limitata modello di programmazione.
Che difetto è il soggetto di Siegelmann primario del lavoro alla DARPA, il “Lifelong Learning” le Macchine di progetto, o “L2M,” sotto l’egida della DARPA Microsystems Technology Office. (Siegelmann detiene attualmente due program manager denominazioni, con l’altro essere alle Informazioni Ufficio per l’Innovazione.)
“La formazione permanente è la prossima generazione di AI”, dice Siegelmann. Il grande problema di apprendimento profondo, una parte del suo mancato adeguamento, è che artificiale, le reti possono perdere traccia del peso di aggiornamenti che in precedenza costituivano informazioni apprese, un fenomeno noto come “catastrofica dimenticare.” L’obiettivo principale di L2M, lei dice, è “un sistema in grado di imparare dall’esperienza, e applicare esperienze verso nuove circostanze, in modo che non è così fragile.”
Le implicazioni, non solo il miglioramento delle prestazioni sul test set. DARPA ha individuato IA come una frontiera di cyber-attacchi. Tradizionale cyber-security difese sono progettati per fisso assalti, le cose come virus e “POR gadget” che vengono scritti una sola volta e distribuita ampiamente per un determinato tipo di attacco. Ma AI fragilità dei nuovi dati significa profonda reti di apprendimento può affrontare un continuo mutare di minaccia all’ambiente nel cosiddetto contraddittorio attacchi.
Per questo motivo, Siegelmann sovrintende un altro progetto, questo, entro la Informazione Ufficio per l’Innovazione, chiamato “Garantire AI Robustezza contro l’Inganno” o GARD. Come lei descrive l’obiettivo, “ci possono essere un milione di diversi attacchi, ma le nostre difese, dovrebbe essere sufficiente per qualsiasi attacco”. Un costrutto come L2M può essere il tipo di intelligenza artificiale in grado di adattarsi, quella in cui “noi pensiamo tipi di difese che cambiano nel tempo.” Un primo incontro di GARD è prevista per il mese di dicembre, con i risultati che sono attesi per materializzare un anno dopo.
Argomenti Correlati:
Sicurezza
La Trasformazione Digitale
CXO
Internet delle Cose
L’innovazione
Enterprise Software