IBM AI dimostrazione sufficiente per un quantum killer app?

0
168

IBM sulla sua “5 in 5′ le previsioni per il 2019
Jeff Welser, vice presidente e direttore del laboratorio IBM di Ricerca – Almaden, si siede con Tonya Sala per parlare di IBM ultime 5 in 5 annuncio.

Lo scorso numero della rivista Nature contenute alcune intriganti lavoro da IBM e MIT riguardo a come implementare macchina di apprendimento di un computer quantistico.

Il lavoro suggerisce gli aspetti della macchina di apprendimento in cui quantistica potrebbe effettivamente essere un vantaggio misurabile oltre ai classici, il che significa, elettronica e computer.

Sia che si aggiunge ad una “killer app” per il quantum è meno certo. Non basta fare qualcosa in quantum computing che è difficile da fare nella classica computing; deve essere qualcosa che vale la pena di fare.

I ricercatori di IBM T. J. Watson Research Center, tra cui Adalberto Havlíček, Antonio D. Córcoles, Kristan Temme, Abhinav Kandala, Jerry M. Chow e Jay M. Gambetta, ha collaborato con Aram W. Harrow, del MIT Center for Theoretical Physics, autore della Natura della carta, intitolato apprendimento Supervisionato con quantistica avanzata funzionalità di spazi. C’è un articolo separato di materiale supplementare che è sicuramente la pena di leggere. (Sottoscrizione per Natura, o per singolo articolo, acquisto, è necessario per leggere gli articoli.)

Anche: IBM colpi di quantum computing pietra miliare, può vedere il “Quantum Vantaggio’ nel 2020

C’è anche un post di un blog, scritto da Temme e Gambetta.

I ricercatori hanno dimostrato di machine learning per l’esecuzione di IBM “IBM Q” quantum macchina, e lo hanno fatto con solo due qubit, quindi è un pratico sistema funzionante oggi, senza dover aspettare per le decine di qubit che possono entrare in linea nel prossimo decennio.

ibm-quantum-circuit-march-2019.png

IBM due qubit quantum macchina di codifica dei dati in funzione “mappa”, che utilizza due strati di Hadamard porte, interleaved con quello che è chiamato fase di porte.

IBM.

Con questi qubits, hanno costruito un classificatore, un programma che impara come assegnare i dati in diverse categorie con la scelta di modelli di dati. Essi hanno scoperto che si può calcolare una più complessa funzione di computer convenzionali, se hanno costruito la loro classificatori utilizzando due di quelli che vengono chiamati “di Hadamard gates,” una trasformazione dei dati che è simile a una trasformata di Fourier.

La versione della macchina di apprendimento che essi perseguono in questo caso non è deep learning, è ciò che è sempre stato chiamato un “superficiale” della rete, un quantum di versione della “macchina di vettore di sostegno” o SVM, che è stato introdotto nel 1990 da Vladimir Vapnik.

La SVM ha un unico “kernel” di pesi che trasformano input di dati in una funzione “mappa” in modo che i dati possono essere decisamente separati e mettere in distinta secchi per categoria di cose. Havlíček e colleghi andato alla ricerca di una funzione di mappa che è difficile da calcolare su un computer classico. Hanno trovato alcuni, report, che richiedono più di Hadamard porte di cui sopra.

La domanda è se qualcuno vuole un singolo, estremamente complesso mappa. Il campo di apprendimento profondo per molti anni è ora speso un sacco di sforzo per affermare l’inferiorità delle SVM approccio, e di simili kernel di avvicinamenti, a favore di profonda reti neurali come convolutional reti neurali (CNNs), o reti neurali ricorrenti (RNNs).

Anche: Intel offre AI svolta nel quantum computing

Il motivo, come spiegato dall’Università di Montreal MILA istituto Yoshua Bengio e colleghi, nel 2013, è che le reti permettersi gerarchie di rappresentanza. Il punto intero di apprendimento profondo è che essendo vincolata da limiti computazionali forze di una disciplina al di sopra dell’abisso di rete che rende produrre astrazioni che portano a significative generalizzazione.

Come Bengio scrive, “I concetti che sono utili per descrivere il mondo che ci circonda può essere definito in termini di altri concetti, in una gerarchia, con concetti più astratti più in alto nella gerarchia, definito in termini di meno astratte.”

L’intelligenza, in termini di apprendimento profondo forme di apprendimento automatico, esce di vincolo. Vincolo forze livelli di astrazione che portano alle più sofisticate rappresentazioni di dati. IBM i ricercatori stanno anche cercando di costruire una rappresentazione, solo nel loro caso, una singola, molto difficile da calcolare funzionalità della mappa.

Deve leggere

‘IA è molto, molto stupido”, dice Google AI leader (CNET)Come ottenere tutti Google Assistente nuove voci di adesso (CNET)Unificata di Google IA divisione di un chiaro segnale di AI del futuro (TechRepublic)Top 5: le Cose da sapere riguardo AI (TechRepublic)

Che molto difficile da calcolare funzionalità di mappa dovrà vedersela con una continua fascino con il fenomeno di profondità, nel profondo reti. Per esempio, l’Università di Stanford, Ben Poole e colleghi hanno in questi ultimi anni ha esplorato la geometria di ciò che accade ai vettori di feature che attraversano una profonda rete neurale. Essi hanno scoperto che il “collettore”, la rappresentazione geometrica dei dati, cambia forma in modo intrigante come va dall’ordine al caos di ordinare di nuovo lungo la lunghezza di una profonda rete neurale.

Tutto ciò per dire che l’epoca attuale è affascinato dalla profondità nel profondo di una rete neurale, e da ciò che accade a segnali vengono trasformati in un processo a più stadi. Il campo è attanagliato dalla domanda del perché un computer arriva a gerarchie di rappresentanza, non solo che è possibile classificare correttamente.

IBM classificazione potrebbe anche avere cose interessanti da dire su rappresentazioni e come si forma, anche se non sembra essere la messa a fuoco del report corrente. Havlíček e colleghi riconoscere che non hanno ancora trovato il vantaggio quantistico che vogliono, “perché abbiamo minimizzato la portata del problema, sulla base dell’attuale capacità hardware, utilizzando solo due qubit della fisica quantistica, la capacità di calcolo, che può essere simulato su un computer classico.”

Tuttavia, insistono un futuro di classificazione “classificare molto di più set di dati complessi, prima di tutto, un classico computer in grado di gestire,” ed è quindi “un percorso promettente in avanti”.

In accompagnamento di un pezzo di Natura, Maria Schuld, con il Quantum Gruppo di Ricerca presso la Scuola di Chimica e Fisica dell’Università di KwaZulu-Natal a Durban, in Sud Africa, viene descritto come il suo gruppo di ricerca è arrivato a una simile scoperta di Havlíček e colleghi. Nella sua descrizione del loro lavoro, Schuld chiede: “queste tecniche sia abbastanza buono per battere quasi 30 anni di metodi classici?”

Se è così, vorrebbe dire “alla disperata ricerca di un ‘killer application’ per i computer quantistici sarebbe finita,” osserva, prima di aggiungere, “Ma la risposta a questa domanda è probabilmente più complicato.”

Sarà IBM hanno un notevole vantaggio nel prossimo decennio? Fatemi sapere cosa ne pensate nella sezione commenti.

Precedente e relativa copertura:

Che cosa è l’IA? Tutto quello che devi sapere

Un esecutivo a guida di intelligenza artificiale, machine learning e generale AI alle reti neurali.

Cos’è il deep learning? Tutto quello che devi sapere

Il lowdown su deep learning: da come si relaziona con il più ampio campo di machine learning a come iniziare con esso.

Che cosa è macchina di apprendimento? Tutto quello che devi sapere

Questa guida spiega in cosa consiste la macchina di apprendimento, di come esso è legato all’intelligenza artificiale, come funziona e perché è importante.

Che cos’è il cloud computing? Tutto quello che devi sapere su

Un’introduzione al cloud computing destra, dalle nozioni di base fino a IaaS e PaaS, ibrido, public e private cloud.

Storie correlate:

Google AI naviga in “gamescape” per conquistare la teoria dei giochi
Questo è ciò che l’IA sembra (come disegnato dall’IA)
Google DeepMind team leader 3D game dev piattaforma
DeepMind AI punti i primi segni della malattia dell’occhio

Argomenti Correlati:

IBM

La Trasformazione Digitale

CXO

Internet delle Cose

L’innovazione

Enterprise Software