Google funderer den mangler af machine learning

0
170

Nul

Kritikere af den nuværende tilstand af kunstig intelligens-teknologien er vokset kraftigere i de sidste par år, og i denne uge, Google, en af de største kommercielle modtagere af den nuværende mode, tilbydes et svar, hvis, måske, ikke et svar til kritikere.

I en artikel udgivet af Google Hjernen og det Dybe Sind enheder af Google, forskere adressen mangler i området og tilbyde nogle teknikker, som de håber vil bringe machine learning længere henne ad stien til hvad der ville være “kunstig generel intelligens,” noget mere som menneskeligt ræsonnement.

Den forskning, der erkender, at de nuværende “dyb læring” – tilgange til AI har undladt at opnå evnen til at selv-tilgang menneskets kognitive færdigheder. Uden dumping alle, der er blevet opnået med ting som “convolutional neurale netværk,” eller CNNs, skinnende succes for machine learning, kan de foreslå måder til at give en bredere tænkning.

Også: Google Hjernen, Microsoft lod de mysterier af netværk med AI

Papiret, “Relationelle induktiv bias, dyb læring, og graf netværk,” udgivet på arXiv pre-print service, er forfattet af Peter W. Battaglia af Google ‘ s DeepMind enhed, sammen med kolleger fra Google Hjerne, MIT, og University of Edinburgh. Det foreslås, at brugen af netværk “grafer” som et middel til bedre at generalisere fra én forekomst af et problem til en anden.

Battaglia og kolleger, at kalde deres arbejde “del position papir, delvis revision, og en del forening, at” observere, at AI “har gennemgået en renæssance for nylig,” takket være “billige data og billige beregne ressourcer.”

Men “mange definerende karakteristika ved den menneskelige intelligens, som er udviklet under mange forskellige pres, forbliver utilgængeligt for nuværende tilgange,” især “generalisere ud over ens erfaringer.”

Derfor, “Et stort hul mellem menneske og maskine intelligens er fortsat, specielt med hensyn til en effektiv, generalizable læring.”

Forfatterne nævner nogle fremtrædende kritikere af AI, som NYU professor Gary Marcus.

I svar, de argumentere for “blanding af kraftfulde dybe læring med struktureret repræsentationer,” og deres løsning er noget, der hedder en “graf netværk.” Disse er modeller af samlinger af genstande eller personer, hvis forhold er udtrykkeligt kortlagt som “kanter”, der forbinder objekter.

“Den menneskelige kognition, der gør den stærk antagelse, at verden er sammensat af objekter og relationer,” skriver de, “og fordi GNs [graf netværk] komme til en lignende antagelse, deres adfærd tendens til at være mere kan tolkes.”

Også: Google Næste 2018: En dybere dyk på AI og machine learning fremskridt

Papiret eksplicit trækker på arbejde i mere end et årti nu på “graf neurale netværk.” Det afspejler også nogle af den seneste tids interesse ved at Google Hjernen folk i brug af neurale net til at finde ud af nettets struktur.

Men i modsætning til det forudgående arbejde, forfatterne gør den overraskende påstand om, at deres arbejde ikke er nødvendigt at bruge neurale netværk, per se.

Snarere, modellering af forhold af objekter er noget, der ikke kun strækker sig over alle de forskellige machine learning modeller — CNNs, tilbagevendende neurale netværk (RNNs), long-short-term memory (LSTM) systemer, osv. – men også andre tilgange, der ikke neurale net, som er teori.

image.jpg

Google AI forskere grunden til, at mange ting vil man gerne være i stand til at ræsonnere om stort set — partikler, sætninger, objekter i et billede-kommer ned til grafer af relationer mellem enheder.

Google Hjernen, Dyb Sind, MIT, University of Edinburgh.

Ideen er, at grafen netværk, der er større end én maskine-learning-tilgang. Grafer bringe en evne til at generalisere om struktur, at de enkelte neurale net ikke har.

Forfatterne skriver, “Grafer, generelt, er en repræsentation, som understøtter vilkårlige (parvis) relationel struktur, og beregninger over grafer råd til en stærk relationel induktiv bias, end der convolutional og tilbagevendende lag kan give.”

En fordel af grafer synes også at være, at de er potentielt mere “prøve effektivt”, hvilket betyder, at de ikke kræver så meget rå data som strenge neurale net tilgange.

Til at lade dig prøve det derhjemme, forfatterne i denne uge tilbudt en software toolkit for graf netværk, skal bruges sammen med Google ‘ s TensorFlow AI ramme, lagt på Github.

Også: Google preps TPU 3.0 til AI, machine learning, model uddannelse

Lest du tror, at forfatterne tror, de har regnet det hele ud, det papir, der viser nogle af de tilbageværende mangler. Battaglia & Co. stille det store spørgsmål: “Hvor skal de grafer, der kommer fra grafen netværk arbejder over?”

Dyb læring, som de bemærker, bare absorberer masser af ustrukturerede data, såsom rå pixel oplysninger. At data ikke svarer til nogen særlige enheder i verden. Så de konkluderer, at det kommer til at være en “spændende opgave” at finde en metode, der “kan pålideligt uddrag diskrete enheder fra sensoriske data.”

De har også indrømme, at graferne ikke er i stand til at udtrykke alt: “begreber som rekursion, kontrol flow, og betinget iteration er ikke ligetil at repræsentere med grafer, og, minimalt, kræve yderligere antagelser.”

Andre strukturelle former, kan der være behov for, såsom, måske, efterligninger af computer-baserede strukturer, herunder “registre, hukommelse, i/O-controllere, stakke, køer” og andre.

Tidligere og relaterede dækning:

Hvad er AI? Alt, hvad du behøver at vide

En executive guide til kunstig intelligens, fra machine learning og generelt AI til neurale netværk.

Hvad er dyb læring? Alt, hvad du behøver at vide

Den lowdown på en dyb læring: fra hvordan det relaterer til det bredere felt af machine learning igennem til, hvordan du kommer i gang med det.

Hvad er machine learning? Alt, hvad du behøver at vide

Denne vejledning forklarer, hvad machine learning er, hvordan det er relateret til kunstig intelligens, hvordan det fungerer, og hvorfor det er vigtigt.

Hvad er cloud computing? Alt, hvad du behøver at vide om

En introduktion til cloud computing-lige fra det grundlæggende op til IaaS og PaaS, hybrid, offentlige og private cloud.

Relaterede historier:

Der er ingen rolle for AI eller data videnskab: dette er en holdindsats Start Slægt bringer splint af håb for AI i robotteknologi AI: udsigt fra Chief Data Videnskab Kontor Salesforce-introer Einstein Stemme, en AI stemme assistent for virksomheder er det ikke Det job AI er ødelæggende for at genere mig, det er dem, der er voksende, Hvordan Facebook skalaer AI

Relaterede Emner:

Netværk

Digital Transformation

CXO

Tingenes Internet

Innovation

Virksomhedens Software

0