Er IBM ‘ s AI demonstration nok til et afgørende killer-app?

0
162

IBM på sin “5 i 5′ forudsigelser for 2019
Jeff Welser, vice president og lab direktør i IBM ‘s Forsknings – Almadén, sidder med Tonya Hallen for at tale om IBM’ s nyeste 5 i 5 meddelelse.

I sidste uges udgave af Nature magazine indeholdt nogle spændende arbejde med IBM og MIT om, hvordan man gennemfører machine learning på en kvante-computer.

Arbejdet tyder på aspekter af machine learning, hvor quantum kunne rent faktisk har en målbar fordel i forhold til klassisk, hvilket betyder, elektroniske og computere.

Uanset om der tilføjer op til en “killer-app” til quantum er mindre sikker. Det er ikke nok til at gøre noget i kvantecomputere, der er svært at gøre i klassisk design; det skal være noget, der er værd at gøre.

Forskere ved IBM ‘s T. J. Watson Research Center, herunder Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Abhinav Kandala, Jerry M. Chow og Jay M. Gambetta, sammen med Kresten W. Harrow af MIT’ s Center for Teoretisk Fysik, at forfatteren Arten papir, med titlen, Overvåget indlæring med quantum-enhanced-funktionen spaces. Der er en separat artikel af supplerende materiale samt der er helt sikkert værd at læse. (Abonnement til Naturen, eller en enkelt artikel indkøb, er forpligtet til at læse artiklerne.)

Også: IBM hits quantum computing milepæl, kan se “Quantum Fordel” i 2020erne

Der er også et blog-indlæg, skrevet af Temme og Gambetta.

Forskerne viste, machine learning, der kører på IBM ‘ s “IBM Q” quantum maskine, og de gjorde det med bare to qubits, så det er et praktisk system, der betjenes i dag, uden at skulle vente for snesevis af qubits, der kan komme online inden for det næste årti.

ibm-quantum-circuit-march-2019.png

IBM ‘ s to-bendt quantum maskine koder data i en “feature kort,” ved hjælp af to lag af Hadamard gates, interleaved med det, der kaldes fase gates.

IBM.

Med disse qubits, byggede de et klassificeringen, et program, der lærer at tildele data til forskellige kategorier af picking mønstre i data. De fandt, at de kunne beregne en mere kompleks funktion end konventionelle computere, hvis de byggede deres kriterier for klassificering ved hjælp af to af, hvad der kaldes “Hadamard gates,” en transformation af data, der er beslægtet med en fouriertransformation.

Den version af machine learning, at de forfølger i denne sag er ikke dyb læring, det er, hvad der traditionelt er blevet kaldt en “lille” netværk, en quantum version af “support vektor maskine,” eller SVM, der blev introduceret i 1990’erne af Vladimir Vapnik.

Den SVM har en fælles “kerne” af vægte, der omdanner input data i en “feature kort”, således at data kan være afgørende adskilt og sat i forskellige spande ved en kategori af ting. Havlíček og kolleger gik på udkig efter en funktion kort, der er svært at beregne på en klassisk computer. De har fundet nogle, de rapport, der kræver flere Hadamard gates er nævnt ovenfor.

Spørgsmålet er, om nogen ønsker en enkelt, ekstremt komplekse træk kort. Inden for dyb læring har nu i mange år brugt en masse kræfter på at hævde, underlegenhed af SVM tilgang, og af lignende kerne metoder, til fordel for dybt neurale netværk som convolutional neurale netværk (CNNs), eller tilbagevendende neurale netværk (RNNs).

Også: Intel tilbyder AI gennembrud i quantum computing

Den grund, som forklares ved University of Montreal MILA instituttets navn som egentlig betyder yoshua Bengio og kolleger, i 2013, er det dybe netværk har råd til hierarkier af repræsentation. Hele pointen i dyb læring er, at blive begrænset af beregningsmæssige begrænsninger tvinger en disciplin ved de dybe netværk, der gør det producere abstraktioner, som fører til meningsfuld generalisering.

Som Bengio skriver: “De begreber, der er nyttige for at beskrive verden omkring os, kan være defineret i forhold til andre koncepter, i et hierarki, med mere abstrakte begreber, der er højere i hierarkiet, som er defineret i form af mindre abstrakt dem.”

Intelligens, i form af dybe læring former for machine learning, der kommer ud af tvang. Begrænsning styrker niveauer af abstraktion, der fører til mere avancerede repræsentationer af data. IBM-forskere har også søger at konstruere en repræsentation, kun i deres sag, en enkelt, meget svære at beregne funktionen kort.

Skal læse

“AI er meget, meget dum, “siger Google’ s AI-leder (CNET), Hvordan man får alle Google Assistant ‘s nye stemmer lige nu (CNET)Samlet Google AI division et klart signal om, at AI’ s fremtid (TechRepublic)Top 5: Ting at vide om AI (TechRepublic)

Der er meget svære at beregne har kort bliver nødt til at kæmpe med en fortsat fascination af fænomenet dybde i dybe netværk. For eksempel, Stanford University ‘ s Ben Poole og kolleger har i de seneste år udforsket geometri, hvad der sker med feature-vektorer, som de krydse en dyb neurale netværk. De fandt, at “mange,” den geometriske repræsentation af de data, ændrer form i spændende måder, så det går fra orden til kaos til orden igen langs længden af en dyb neurale netværk.

Alle, der er at sige, at den nuværende alder er fascineret af dybde i en dyb neurale netværk, og ved, hvad der sker med signaler, når de er omsat i en multi-trins proces. Området er grebet af spørgsmålet om, hvorfor en computer ankommer til hierarkier af repræsentation, ikke bare, at det med succes kan klassificere.

IBM klassificeringen måske også har nogle interessante ting at sige om repræsentationer, og hvordan de form, selvom der ikke synes at være i fokus i den aktuelle rapport. Havlíček og kolleger anerkender, at de endnu ikke har fundet den quantum fordel, de ønsker, “fordi vi har minimeret omfanget af det problem, der er baseret på vores nuværende hardware kapaciteter, der kun bruger to qubits af quantum computing evne, der kan simuleres på en klassisk computer.”

Men de insisterer på en fremtid klassificeringen vil “klassificere langt mere komplekse datasæt end noget, som en klassisk computer kan håndtere,” og er derfor “en lovende vej frem.”

I en ledsagende stykke i Naturen, Maria Schuld, med Quantum forskergruppe ved institut for Kemi og Fysik på University of KwaZulu-Natal i Durban, Sydafrika, beskriver, hvordan hendes forskning gruppe nåede frem til en lignende opdagelse, at Havlíček og kolleger. I hendes beskrivelse af deres arbejde, Schuld spørger, “Vil disse teknikker være god nok til at slå næsten 30 år af klassiske metoder?”

Hvis det er tilfældet, ville det betyde “den desperate søgen efter en” killer application ” for kvante-computere ville være slut,” konstaterer hun, og tilføjer, “Men svaret på dette spørgsmål er nok mere kompliceret.”

Vil IBM har en meget stor fordel i det næste årti? Lad mig vide hvad du synes i kommentarfeltet.

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Google ‘ s AI surfer “gamescape” for at erobre game theory
Dette er, hvad AI ligner (som skitseret ved AI)
Google ‘ s DeepMind hold med førende 3D spil dev platform
DeepMind ‘ s AI pletter tidlige tegn på øjensygdom

Relaterede Emner:

IBM

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software