Google DeepMind AI: Nu is het de kranen in dromen te leren, zelfs sneller

0
288
google-deepmind-go.jpg

Google DeepMind de nieuwe medewerker maakt gebruik van de dezelfde diepe reinforcement learning methoden die het eerder werkzaam voor het beheersen van de game Gaan.

Afbeelding: Claire Reilly/CNET

De nieuwste AI oprichting van de onderzoekers bij Google DeepMind lab is ONWERKELIJK, een bijzonder snelle agent dat aan zou kunnen pakken meer complexe taken dan alleen games.

DeepMind onderzoekers presenteren hun bevindingen in een nieuwe paper beschrijft, zonder Toezicht, Versterking en hulp Leren of ONECHT zijn, die in een deel beïnvloed door de manier waarop dieren droom om de snelheid van het leren.

Het testen van de agent op Atari games en de 3D-spel Labyrint, ze vinden dat het in staat was om te leren van de 10 keer sneller dan de vorige algoritmen. Het is ook gemiddeld 87 procent expert menselijke prestaties op Labyrint.

Als DeepMind de in Londen gevestigde onderzoekers verklaren, de agent maakt gebruik van dezelfde diepe reinforcement learning methoden die het eerder werkzaam aan de meester van het spel Gaan en verschillende Atari 2600 games.

Echter, wat maakt UNREAL bijzondere is dat het is aangevuld met twee extra taken, een van die leent van hoe de dieren droom en een andere die lijkt op hoe baby ‘ s ontwikkelen van motorische vaardigheden.

“Net als dieren, dromen over positief – of negatief-de beloning van gebeurtenissen vaker, onze agenten bij voorkeur replay van reeksen met het belonen van evenementen,” schrijven ze in de krant.

De onderzoekers hebben dit concept om te leren van de agent om zich te concentreren op visuele cues van de recente geschiedenis van de ervaringen, die het signaal snelkoppelingen naar grotere beloningen.

“De agent is opgeleid om te voorspellen het begin van de onmiddellijke beloningen van een korte historische context. Om beter om te gaan met het scenario waarin de beloningen zijn zeldzaam, presenteren we de agent met het verleden te belonen en niet-lonende geschiedenis in gelijke verhouding,” ze legde uit in een blogpost.

“Door te leren op het belonen van geschiedenissen veel vaker, de agent kan ontdekken visuele functies voorspellende beloning veel sneller.”

De andere taak betreft hoe de agent de controle pixels op het scherm op een manier die zich richt op het leren van acties om te vertellen wat nuttig is om goed te spelen en meer scoren hoog in een bepaald spel.

Met behulp van de drie technieken gecombineerd, de onderzoekers testten de agent op 57 Atari games en 13 niveaus van Labyrint.

Een deel van de prestatie is niet alleen het creëren van een agent die uitblinkt in elk spel, maar dat de agent hoeft niet te worden aangepast om te leren van elk spel.

Als de onderzoekers wezen erop, DeepMind ‘s belangrijkste doel is om je grenzen te verleggen, in AI, met behulp van programma’ s die “kunt leren om het oplossen van een complex probleem hoeven te worden geleerd hoe”. Zo, nu hebben ze een sneller-learning agent en ook meer flexibel.

“We hopen dat dit werk zal ons toelaten om op te schalen van onze medewerkers om steeds meer complexe omgevingen,” de onderzoekers gezegd.

CNET: AI is gewoon niet die in u-nog