Google funderar brister av maskininlärning

0
159

Noll

Kritiker av det aktuella läget av artificiell intelligens har vuxit sig starkare under de senaste åren, och denna vecka, Google, en av de största kommersiella mottagarna av det aktuella modet, erbjuds ett svar, om kanske inte ett svar till kritikerna.

I en rapport som publicerades av Google Hjärnan och det Djupa Sinnet enheter av Google, forskare ta itu med bristerna i området och erbjuder några tekniker som de hoppas kommer att ge maskininlärning längre på vägen till vad som skulle vara “artificiell generell intelligens,” något mer som mänskliga resonemang.

Den forskning som erkänner att de aktuella “djupinlärning” metoder för att AI har misslyckats med att uppnå förmågan att ens närma sig människans kognitiva färdigheter. Utan dumpning allt som uppnåtts med saker som “convolutional neurala nätverk,” eller CNNs, den lysande framgång i machine learning, de föreslår olika sätt för att ge bredare kunskaper om resonemang.

Också: Google Hjärnan, Microsoft lod mysterier nätverk med AI

Papper, “Relationella induktiv fördomar, djupt lärande och diagram nätverk”, publicerad på arXiv pre-print-tjänsten, är författad av Peter W. Battaglia av Googles DeepMind enhet, tillsammans med kollegor från Google Hjärnan, MIT, och University of Edinburgh. Det föreslås användning av nätverk “diagram” som ett sätt att bättre kunna generalisera från en instans av ett problem till ett annat.

Battaglia och kollegor, ringer deras arbete “en del ” position paper”, en del översyn, och en del enande” observera att AI “har genomgått en renässans nyligen,” tack vare “billiga data och billiga beräkna resurser.”

Men “många utmärkande egenskaper hos den mänskliga intelligensen, som utvecklats under mycket olika påfrestningar, förbli utom räckhåll för nuvarande metoder,” speciellt “att generalisera bortom sina erfarenheter.”

Alltså, “Ett stort gap mellan människa och maskin intelligens är fortfarande, särskilt med hänsyn till en effektiv, generaliserbart lärande.”

Författarna nämna några framstående kritiker av AI, som NYU professor Gary Marcus.

I svar, de argumenterar för att “blanda kraftfull djupt lärande metoder med strukturerat representationer”, och deras lösning är något som kallas en “grafen-nätverk.” Det är dessa modeller av samlingar av föremål eller personer, vars relationer är uttryckligen mappas ut som “kanter” att ansluta objekt.

“Människans kognition gör den starka antagandet att världen består av objekt och relationer,” skriver de, “och eftersom GNs [grafen nätverk] göra ett liknande antagande, deras beteende tenderar att vara mer tolkningsbara.”

Också: Google Nästa 2018: En djupare dyk på AI och maskininlärning förskott

Det papper som uttryckligen bygger på arbete i mer än ett decennium nu på “graph neurala nätverk.” Det avspeglar också några av den senaste tidens intresse av Google Hjärnan folk i neurala nät för att räkna ut nätets struktur.

Men till skillnad från tidigare arbete, författarna göra ett överraskande påstående att deras arbete inte behöver använda neurala nätverk, per se.

Snarare, modellering relationer av föremål är något som inte bara sträcker sig över alla olika modeller — CNNs, återkommande neurala nätverk (RNNs), lång-kort-sikt-minne (LSTM) system, etc. — men också andra metoder som inte är neurala nät, såsom teori.

image.jpg

Googles AI-forskare anledningen till att många saker man skulle vilja kunna resonera om i stort sett — partiklar, meningar, objekt i en bild, kom ner till grafer av relationer mellan enheter.

Google Hjärnan, Djupa Sinnet, MIT, University of Edinburgh.

Tanken är att grafen nätverk är större än en enda maskin-lärande. Diagram föra en förmåga att generalisera om struktur som den enskilda neurala nät inte har.

Författarna skriver, “Graphs, i allmänhet, är en representation som stöder godtycklig (parvis) relationella struktur, och beräkningar över graphs råd med en stark relationella induktiv bias utöver det som convolutional och återkommande lager kan ge.”

En förmån av grafer verkar också vara så att de är potentiellt mer “exempel på effektiv”, vilket innebär, att de inte kräver så mycket rådata som strikt neurala nätet närmar sig.

För att låta dig prova det hemma, författarna denna vecka erbjuds en programvara verktyg för diagram nätverk, för att användas med Googles TensorFlow AI ram, inlagd på Github.

Också: Google preps TPU 3.0 för AI, maskininlärning, modell träning

Så att ni tror att författarna tror att de har räknat ut allt, papper listar några kvardröjande brister. Battaglia & Co. utgör den stora frågan, “Var kan graferna kommer från att grafen nätverk fungerar över?”

Djupt lärande, påpekar de, bara absorberar massor av ostrukturerad data, till exempel råa pixel information. Att data kan inte motsvarar någon särskild enheter i världen. Så de drar slutsatsen att det kommer att bli en “spännande utmaning” att hitta en metod som “kan på ett tillförlitligt sätt extrahera diskreta enheter från sensoriska data.”

De har också medge att diagram inte kan uttrycka allt: “begrepp som rekursion, kontroll av flöde och villkorlig iteration är inte okomplicerat att representera med grafer, och, minimalt, kräver ytterligare antaganden.”

Andra strukturella former som kan behövas, till exempel, kanske, imitationer av dator-baserade strukturer, inklusive register, minne, I/O controller, stackar, köer” och andra.

Tidigare och relaterade täckning:

Vad är AI? Allt du behöver veta

En verkställande guide till artificiell intelligens, från maskininlärning och allmänna AI att neurala nätverk.

Vad är djupt lärande? Allt du behöver veta

Lowdown på djupt lärande: från hur det förhåller sig till de bredare fält av maskinen lärande genom hur man kommer igång med det.

Vad är lärande? Allt du behöver veta

Denna guide förklarar vad lärande är, hur den är relaterad till artificiell intelligens, hur det fungerar och varför det är viktigt.

Vad är cloud computing? Allt du behöver veta om

En introduktion till cloud computing rätt från grunderna upp till IaaS och PaaS, hybrid, offentliga och privata moln.

Relaterade artiklar:

Det finns ingen roll för AI eller data vetenskap: det här är ett lagarbete Start Släkt ger strimma av hopp för AI i robotik AI: vy från Chief Data Vetenskap Kontor Salesforce intron Einstein Röst, en AI röst assistent för företag att det inte är Det jobb AI är förstört som stör mig, det är de som växer Hur Facebook skalor AI

Relaterade Ämnen:

Nätverk

Digital Omvandling

CXO

Sakernas Internet

Innovation

Affärssystem

0