IBM: s AI demonstration nog för en quantum killer-app?

0
132

IBM på sina “5 i 5′ förutsägelser för 2019
Jeff Welser, vice vd och lab direktör på IBM Research – Almaden, sätter sig ner med Tonya Hallen för att prata om IBM: s senaste 5 i 5 meddelande.

Förra veckans nummer av Nature tidningen innehöll en del spännande arbete med IBM och MIT om hur man ska genomföra lärande på en kvantdator.

Arbetet föreslår aspekter av lärande där quantum kunde faktiskt ha en mätbar fördel över klassisk, mening, elektronik och datorer.

Om det blir en “killer app” för quantum är mindre säker. Det är inte tillräckligt för att göra något i quantum computing som är svårt att göra i klassisk design, det måste vara något som är värt att göra.

Forskare på IBM: s T. J. Watson Research Center, inklusive Vojtěch Havlíček, Antonio D. Córcoles, Kristan Temme, Abhinav Kandala, Jerry M. Chow och Jay M. Gambetta, tillsammans med Aram W. Harrow av MIT: s Centrum för Teoretisk Fysik, författare Naturen papper, med titeln, Övervakad inlärning med quantum-förbättrade funktionen utrymmen. Det finns en separat artikel av kompletterande material samt det är definitivt värt att läsa. (Teckning till Naturen, eller enskild artikel inköp, behövs för att läsa artiklarna.)

Också: IBM träffar quantum computing milstolpe, kan se “Quantum Fördel” i 2020-talet

Det är också ett blogginlägg, skrivet av Temme och Gambetta.

Forskarna visat maskininlärning kör på IBM: s “IBM Q” quantum maskinen, och de gjorde det med bara två qubits, så det är ett praktiskt system som manövreras idag, utan att behöva vänta för tiotals qubits som kan komma online i nästa decennium.

ibm-quantum-circuit-march-2019.png

IBM: s två-qubit quantum maskinen kodar data i en “funktion kartan” med hjälp av två lager av Hadamard gates, interfolieras med vad som kallas fas gates.

IBM.

Med dessa qubits, byggde de en klassificerare, ett program som lär sig att tilldela uppgifter till olika kategorier genom att plocka ut mönster i data. De fann att de kunde beräkna en mer komplex funktion än konventionella datorer, om de byggde sina klassificerare med hjälp av två i vad som kallas “Hadamard gates,” en omvandling av data som är besläktad med en fouriertransform.

Den version av maskininlärning att de eftersträvar i det här fallet är inte djupt lärande, det är vad som traditionellt kallats en “ytlig” – nätverk, en kvantmekanisk version av “support vector machine” eller SVM, som introducerades på 1990-talet av Vladimir Vapnik.

Den SVM har en “kärna” av vikter att omvandla indata till en “funktion” karta ” så att data kan på ett avgörande sätt åtskilda och sätta i olika hinkar per kategori av sak. Havlíček och kollegor gick letar efter en funktion karta som är svårt att beräkna på en klassisk dator. De hittade några, de rapporten, som kräver flera Hadamard gates som nämns ovan.

Frågan är om någon vill ha en enkel, mycket komplex funktion karta. Området djupt lärande har under många år nu spenderat en hel del ansträngning för att hävda underlägsenhet av SVM strategi, och liknande kärnan metoder, till förmån för djupt neurala nätverk som convolutional neurala nätverk (CNNs), eller återkommande neurala nätverk (RNNs).

Också: Intel erbjuder AI genombrott i quantum computing

Anledningen, som förklaras av University of Montreal MILA institutets Yoshua Bengio och mina kollegor, 2013, är att djupt nätverk råd hierarkier av representation. Hela poängen med djupt lärande är att vara begränsade av beräkningsvetenskap gränser som tvingar en disciplin på djupt nätverk som gör det producera abstraktioner som leder till meningsfulla generalisering.

Som Bengio skriver, “De begrepp som är användbara för att beskriva världen omkring oss kan beskrivas i termer av andra begrepp, i en hierarki, med mer abstrakta begrepp högre upp i hierarkin, som definieras i termer av mindre abstrakta sådana.”

Intelligens, i termer av djup lärande former av lärande, kommer ut av tvång. Begränsning krafter nivåer av abstraktion som leder till mer sofistikerade representationer av data. IBM-forskarna är också intresserade av att bygga en representation, bara i deras fall, en enda, mycket svårt-att-beräkna-funktionen karta.

Måste läsa

‘AI är mycket, mycket dumt”, säger Googles AI ledare (CNET)Hur man får alla Google Assistant nya röster just nu (CNET)Enhetlig Google AI division en tydlig signal om att AI: s framtid (TechRepublic)Topp 5: Saker att veta om AI (TechRepublic)

Som mycket svåra att beräkna funktionen karta kommer att få brottas med en fortsatt fascination för fenomenet djup i djupt nätverk. Till exempel, Stanford University ‘ s Ben Poole och kollegor har under de senaste åren undersökt geometri av vad som händer med funktionen vektorer som de färdas genom en djup neurala nätverk. De fann att den “enighet”, geometrisk representation av data, ändrar form i spännande sätt som det går från ordning till kaos till ordning igen längs en djup neurala nätverk.

Alla som vill säga den nuvarande ålder är fascinerad av djup i en djup neurala nätverk, och genom vad som händer med signaler som de omvandlas i en flerstegsprocess. Området är fylld av frågan varför en dator anländer till hierarkier av representation, inte bara att det framgångsrikt kan klassificera.

IBM klassificerare kan också ha en del intressanta saker att säga om fullmakter och hur de form, men det verkar inte vara i fokus för föreliggande rapport. Havlíček och kollegor erkänna att de ännu inte har hittat den kvantmekaniska fördel de vill, “eftersom vi minimeras omfattningen av det problem baserade på våra nuvarande hårdvara resurser, med hjälp av endast två qubits av quantum computing kapacitet, som kan simuleras på en klassisk dator.”

Men de insisterar på en framtida klassificerare kommer att “klassificera långt mer komplexa datamängder än något annat en klassisk dator kan hantera,” och är därför “en lovande väg framåt.”

I en medföljande bit i Naturen, Maria Schuld, med Quantum forskargrupp vid institutionen för Kemi och Fysik vid University of KwaZulu-Natal i Durban, Sydafrika, beskriver hur hennes forskargrupp kommit fram till en liknande upptäckt att Havlíček och kollegor. I hennes beskrivning av sitt arbete, Schuld frågar, “Skulle dessa tekniker vara tillräckligt bra för att slå nästan 30 år av klassiska metoder?”

Om så är fallet, skulle det betyda “den desperata sökande efter en” killer application “för kvantdatorer skulle vara över”, konstaterar hon, innan du lägger till, “Men svaret på den frågan är nog mer komplicerad.”

Kommer IBM har ett stort övertag i nästa decennium? Låt mig veta vad du tycker i kommentarerna.

Tidigare och relaterade täckning:

Vad är AI? Allt du behöver veta

En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.

Vad är djupt lärande? Allt du behöver veta

Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.

Vad är lärande? Allt du behöver veta

Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.

Vad är cloud computing? Allt du behöver veta om

En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.

Relaterade artiklar:

Googles AI surfar “gamescape” att erövra spelteori
Detta är vad AI ser ut (som skissat av AI)
Googles DeepMind lag med ledande 3D-spel dev plattform
DeepMind AI fläckar tidiga tecken på ögonsjukdom

Relaterade Ämnen:

IBM

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem